Co-fundadores da Anthropic afirmam que seus modelos de IA estão aprendendo com os danos das redes sociais.

A missão da OpenAI se concentra em trazer Inteligência Artificial em escala, enquanto sua rival, a Anthropic, foca em segurança. Os fundadores, irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações sobre o potencial prejudicial da IA surgem de observar a evolução de outras tecnologias.

“Sentimos fortemente que há lições a serem aprendidas a partir de ondas anteriores de tecnologia ou inovação,” disse Daniela Amodei durante uma entrevista no Bloomberg Technology Summit. “Tivemos décadas para olhar para trás em coisas como as redes sociais e perceber que houve muito bem que surgiu, mas também houve muitos danos causados por essa tecnologia.”

Os riscos da IA generativa têm sido mais evidentes nos últimos anos, à medida que chatbots de várias empresas online. A Copilot da Microsoft sugeriu auto-dano a um usuário, o ChatGPT da OpenAI criou pesquisas jurídicas falsas, e o Gemini do Google produziu imagens historicamente imprecisas, para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas têm sido usados para difamar suas vítimas e espalhar desinformação.

Os irmãos Amodei deixaram a OpenAI em 2020 devido ao rápido avanço das tecnologias de inteligência artificial generativa sem salvaguardas adequadas, e buscaram construir um modelo mais confiável. Eles têm trabalhado nisso com o chatbot da Anthropic, Claude, que se anuncia como uma ferramenta segura, precisa e segura. A última versão do produto, o Claude 3 da Anthropic, foi considerado um dos modelos de IA mais poderosos, superando o ChatGPT-4. A startup é apoiada pela Amazon e Google.

O “Constitutional AI” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Esses esforços, afirmam os Amodeis, estão pressionando a indústria como um todo a criar modelos mais seguros e responsáveis.