Os Fundadores da Anthropic Dizem que Seus Modelos de IA Estão Aprendendo com os Danos das Redes Sociais

A missão do OpenAI tem se concentrado em escalar a inteligência artificial, enquanto sua rival Anthropic tem focado em segurança. Os co-fundadores, irmãos e ex-funcionários do OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações com o potencial de dano da inteligência artificial surgem a partir da observação da evolução de outras tecnologias.

“Eles têm forte convicção de que há lições a serem aprendidas a partir de ondas anteriores de inovação tecnológica,” disse Daniela Amodei durante uma entrevista no Bloomberg Technology Summit. “Nós tivemos várias décadas para olhar para tecnologias como redes sociais e perceber que, apesar dos benefícios, também houve muitos danos causados por essas tecnologias.”

Os riscos da inteligência artificial generativa têm sido cada vez mais evidentes nos últimos anos, à medida que mais chatbots de diversas empresas são lançados. Microsoft Copilot sugeriu auto-dano a um usuário, OpenAI ChatGPT criou pesquisas legais falsas, e Google Gemini gerou imagens historicamente imprecisas, apenas para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas têm sido usados para difamar as vítimas e disseminar desinformação.

Os Amodeis deixaram o OpenAI em 2020 devido às preocupações de que as tecnologias de inteligência artificial generativa estavam se expandindo sem salvaguardas adequadas, e eles queriam construir um modelo mais confiável. Eles têm trabalhado nesse sentido com o chatbot da Anthropic, Claude, que se anuncia como uma ferramenta “segura, precisa e confiável”. A última versão do produto da Anthropic, Claude 3, foi considerada um dos modelos de IA mais poderosos, se não o mais poderoso, com os Amodeis afirmando que ele pode superar o ChatGPT-4. A startup conta com o apoio da Amazon e do Google.

A “Constitutional AI” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Tais esforços, afirmam os Amodeis, estão pressionando a indústria como um todo a criar modelos mais seguros e responsáveis.

“Nós fomos pioneiros nesse conceito de um plano de escalonamento responsável, que é um framework desenvolvido para ajudar as empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes,” disse Dario Amodei. “Lançamos isso em setembro passado e, em poucos meses, o OpenAI lançou algo similar. Pareceu-nos que ao divulgarmos o nosso plano, ajudamos a incentivar os esforços de outras empresas. Agora sabemos que o Google está fazendo o mesmo.”