Fundadores da Anthropic afirmam que seus modelos de IA estão aprendendo lições dos malefícios das redes sociais

O foco da missão da OpenAI tem sido trazer a inteligência artificial em escala, enquanto sua rival, Anthropic, tem focado na segurança. Os cofundadores, irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, dizem que suas preocupações sobre o potencial prejudicial da IA derivam da evolução de outras tecnologias.

“Sentimos fortemente que existem lições a serem aprendidas a partir de ondas tecnológicas anteriores ou inovações,” disse Daniela Amodei em uma entrevista com Brad Stone da Bloomberg, durante a Cúpula de Tecnologia da Bloomberg. “Temos décadas para olhar para trás em coisas como mídias sociais e dizer: ‘Uau, houve muito bem que surgiu disso, mas também houve danos causados por essa tecnologia.’ Se esses danos poderiam ter sido antecipados previamente, é difícil dizer, mas acredito que estamos tentando ser os atores mais responsáveis que podemos ser e pensar nas possíveis externalidades que essa tecnologia pode causar acidentalmente.”

Os riscos da IA generativa têm ganhado mais destaque no último ano, à medida que mais chatbots de diversas empresas foram lançados. O Copilot da Microsoft sugeriu autodano a um usuário, o ChatGPT da OpenAI criou pesquisas legais falsas, e o Gemini da Google produziu imagens historicamente imprecisas, para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas têm sido usados para difamar suas vítimas e disseminar desinformação.

Os Amodeis deixaram a OpenAI em 2020, preocupados com a rápida expansão das tecnologias de inteligência artificial generativa sem salvaguardas adequadas, e desejavam construir um modelo mais confiável. Eles trabalharam para fazer isso com o chatbot Claude da Anthropic, que se anuncia como uma ferramenta “segura, precisa e segura.” A mais recente iteração do produto, Claude 3, foi chamada de um dos modelos de IA mais poderosos, se não o mais poderoso, com os Amodeis afirmando que ele pode superar o ChatGPT-4. A startup é apoiada pela Amazon e Google.

O “Constitutional AI” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Esses esforços, segundo os Amodeis, estão pressionando a indústria como um todo a criar modelos mais seguros e responsáveis.

“Pioneiramos este conceito de um plano de expansão responsável, que é um framework projetado para ajudar empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes,” disse Dario Amodei. “Lançamos isso em setembro passado, e em poucos meses a OpenAI lançou algo semelhante, e realmente pareceu para nós que o lançamento do nosso plano ajudou a incentivar os esforços dos outros. Agora ouvimos dizer que a Google está fazendo o mesmo.”