Os Fundadores da Anthropic Dizem Que Seus Modelos De IA Estão Aprendendo Com Os Danos Das Mídias Sociais

Onde a missão da OpenAI tem se concentrado em trazer a IA para uma escala maior, sua rival Anthropic tem se concentrado na segurança e proteção. E seus co-fundadores, irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, dizem que suas preocupações sobre o potencial de danos da IA têm origem em observar a evolução de outras tecnologias.

“Nós sentimos fortemente que há lições a serem aprendidas a partir de ondas anteriores de tecnologia ou inovação,” disse Daniela Amodei ao jornalista Brad Stone da Bloomberg durante uma entrevista na Cúpula de Tecnologia da Bloomberg. “Temos tido várias décadas agora para olhar para coisas como as redes sociais e dizer: ‘Uau, você sabe, houve muitos benefícios gerados por essa tecnologia, mas também causou muitos danos.”

“Se poderíamos ter antecipado esses danos antecipadamente, é difícil dizer, mas acho que estamos tentando ser os atores mais responsáveis que podemos ser e pensar nos potenciais externalidades que podem ser causadas acidentalmente por essa tecnologia,” disse ela.

Os riscos da IA generativa têm ganho mais destaque ao longo do último ano, à medida que mais chatbots de mais empresas foram lançados. O Copilot da Microsoft sugeriu auto-dano a um usuário, o ChatGPT da OpenAI criou pesquisas legais falsas e o Gemini do Google produziu imagens historicamente imprecisas, apenas para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas têm sido usados para difamar suas vítimas e disseminar desinformação.

Os Amodeis deixaram a OpenAI em 2020 devido às preocupações de que as tecnologias de inteligência artificial generativa estavam se expandindo rápido demais sem salvaguardas adequadas, e queriam construir um modelo mais confiável. Eles trabalharam exatamente nisso com o chatbot da Anthropic, Claude, que se apresenta como uma ferramenta “segura, precisa e segura.” A última iteração do produto da Anthropic, Claude 3, foi chamada de um dos modelos de IA mais poderosos, senão o mais poderoso, com os Amodeis alegando que pode superar o ChatGPT-4. A startup recebe apoio da Amazon e do Google.

A “IA Constitucional” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Esses esforços, segundo os Amodeis, estão pressionando a indústria como um todo a criar modelos mais seguros e responsáveis.

“Nós fomos os pioneiros neste conceito de um plano de escalonamento responsável, que é um framework projetado para ajudar as empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes,” disse Dario Amodei. “Nós lançamos isso em setembro passado, e em poucos meses a OpenAI lançou algo similar, e realmente pareceu para nós que ao lançarmos o nosso ajudou a estimular os esforços de outros. Agora ouvimos que o Google está fazendo a mesma coisa.”