Os Co-Fundadores da Anthropic Dizem Que Seus Modelos de IA Estão Aprendendo Lições com os Danos das Redes Sociais

A missão da OpenAI tem se concentrado em levar a inteligência artificial para uma escala maior, enquanto sua rival Anthropic tem se concentrado em segurança. Os co-fundadores, irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações sobre o potencial prejudicial da inteligência artificial surgem ao observar a evolução de outras tecnologias.

“Sentimos fortemente que há lições a serem aprendidas a partir de ondas anteriores de tecnologia ou inovação”, disse Daniela Amodei durante uma entrevista no Bloomberg Technology Summit. “Tivemos algumas décadas para olhar para trás e ver coisas como as redes sociais e perceber que, embora tenha havido muitos benefícios, também houve muitos danos causados por essa tecnologia.”

“É difícil dizer se esses danos poderiam ter sido antecipados, mas estamos tentando ser os atores mais responsáveis que podemos ser e pensar sobre quais seriam as possíveis externalidades que poderiam ser causadas acidentalmente por essa tecnologia”, acrescentou Daniela.

Os riscos da inteligência artificial generativa têm sido mais evidentes nos últimos anos, à medida que mais chatbots de diversas empresas entram em operação. O Copilot da Microsoft sugeriu autolesão a um usuário, o ChatGPT da OpenAI criou pesquisas jurídicas falsas, e o Gemini da Google gerou imagens historicamente imprecisas, entre outros exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas têm sido usados para difamar suas vítimas e espalhar desinformação.

Os Amodeis deixaram a OpenAI em 2020 por preocupações de que as tecnologias de inteligência artificial generativa estivessem evoluindo rapidamente sem garantias adequadas, e que desejavam construir um modelo mais confiável. Eles têm trabalhado exatamente nisso com o chatbot Claude da Anthropic, que se autodenomina uma ferramenta “segura, precisa e segura”. A última iteração do produto da Anthropic, o Claude 3, foi considerada um dos modelos de inteligência artificial mais poderosos, se não o mais poderoso, com os Amodeis afirmando que ele pode superar o ChatGPT-4. A startup é apoiada pela Amazon e Google.

O “Constitutional AI” da Anthropic, um conjunto de regras para treinar sistemas de inteligência artificial, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Esses esforços estão pressionando a indústria como um todo a criar modelos mais seguros e responsáveis.

“Fomos pioneiros nesse conceito de um plano de escalonamento responsável, que é um framework projetado para ajudar empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes”, disse Dario Amodei. “Lançamos isso em setembro passado, e em poucos meses a OpenAI fez algo semelhante, e realmente parecia que ao divulgarmos o nosso, ajudamos a estimular os esforços de outros. Agora ouvimos que o Google está fazendo a mesma coisa.”