Os co-fundadores da Anthropic afirmam que seus modelos de IA estão aprendendo com os danos das redes sociais

A missão da OpenAI tem se concentrado em levar a inteligência artificial para uma escala maior, enquanto seu rival Anthropic tem focado na segurança. Os co-fundadores, irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações sobre o potencial prejudicial da inteligência artificial surgem ao observar a evolução de outras tecnologias.

“Eles se sentem fortemente que há lições a serem aprendidas com ondas anteriores de tecnologia ou inovação”, disse Daniela Amodei a Brad Stone da Bloomberg durante uma entrevista na Bloomberg Technology Summit. “Tivemos várias décadas para olhar para coisas como as redes sociais e dizer: ‘Uau, muitas coisas boas surgiram disso, mas também houve muitos danos causados por essa tecnologia’.”

“Se poderíamos ter previsto isso antecipadamente, é difícil dizer, mas acho que estamos tentando ser os atores mais responsáveis que podemos e pensar sobre quais são as externalidades potenciais que podem ser causadas acidentalmente por essa tecnologia”, ela disse.

Os riscos da inteligência artificial geradora têm ganhado mais destaque ao longo do último ano, à medida que mais chatbots de mais empresas são lançados. O Copilot da Microsoft sugeriu auto-infligir danos a um usuário, o ChatGPT da OpenAI criou pesquisas jurídicas falsas e o Gemini do Google criou imagens historicamente imprecisas, apenas para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas foram usados para difamar suas vítimas e espalhar desinformação.

Os Amodeis deixaram a OpenAI em 2020 por preocupações de que as tecnologias geradoras de inteligência artificial estivessem se expandindo muito rapidamente sem salvaguardas adequadas, e eles queriam construir um modelo mais confiável. Eles trabalharam exatamente nisso com o chatbot da Anthropic, Claude, que se promove como uma ferramenta “segura, precisa e segura”. A última iteração do produto da Anthropic, Claude 3, foi chamada um dos modelos de IA mais poderosos, se não o mais poderoso, pelos Amodeis, que afirmam que pode superar o ChatGPT-4. A startup é apoiada pela Amazon e Google.

A “Inteligência Artificial Constitucional” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Tais esforços, dizem os Amodeis, estão pressionando a indústria em geral a criar modelos mais seguros e responsáveis.

“Nós pioneiramos o conceito de um plano de dimensionamento responsável, que é um framework projetado para ajudar empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes”, disse Dario Amodei. “Lançamos isso em setembro passado e, em poucos meses, a OpenAI lançou algo semelhante, e realmente pareceu que ao lançarmos o nosso, estimulamos os esforços dos outros. Agora ouvimos dizer que o Google está fazendo o mesmo.”