Os co-fundadores da Anthropic afirmam que seus modelos de IA estão aprendendo lições dos danos das redes sociais

A missão da OpenAI tem se concentrado em trazer a IA para uma escala maior, enquanto seu rival Anthropic focou em segurança. Os co-fundadores, irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações com o potencial de dano da IA se originam ao observar a evolução de outras tecnologias.

“Sentimos fortemente que há lições a serem aprendidas com ondas anteriores de tecnologia ou inovação”, disse Daniela Amodei em entrevista à Bloomberg Technology Summit. “Tivemos várias décadas para olhar para trás em coisas como as redes sociais e dizer: ‘Uau, muitas coisas boas surgiram disso, mas também houve muitos danos causados por essa tecnologia’”.

“Se poderíamos ter antecipado isso antecipadamente, é difícil dizer, mas estamos tentando ser os atores mais responsáveis que podemos ser e pensar sobre quais podem ser as externalidades potenciais causadas acidentalmente por essa tecnologia”, acrescentou.

Os riscos da IA generativa vieram à tona no último ano, pois mais chatbots de várias empresas foram lançados. O Copilot da Microsoft sugeriu autodano a um usuário, o ChatGPT da OpenAI criou pesquisas legais falsas e o Gemini do Google produziu imagens historicamente imprecisas, para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas foram usados para difamar suas vítimas e espalhar desinformação.

Os irmãos Amodei deixaram a OpenAI em 2020 por preocupações de que as tecnologias de inteligência artificial generativa estivessem se expandindo muito rapidamente sem salvaguardas adequadas e queriam construir um modelo mais confiável. Eles trabalharam para fazer exatamente isso com o chatbot da Anthropic, Claude, que se apresenta como uma ferramenta “segura, precisa e protegida”. A última iteração do produto da Anthropic, Claude 3, foi considerada um dos modelos de IA mais poderosos, se não o mais poderoso, com os Amodeis alegando que pode superar o ChatGPT-4. A startup conta com o apoio da Amazon e do Google.

A “Constituição de IA” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Esses esforços, afirmam os Amodeis, estão pressionando a indústria como um todo a criar modelos mais seguros e responsáveis.

“Desenvolvemos o conceito de um plano de escalonamento responsável, que é um framework projetado para ajudar as empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes”, disse Dario Amodei. “Lançamos isso em setembro passado e em poucos meses a OpenAI lançou algo semelhante, e realmente parece que ao divulgarmos o nosso, incentivamos outros a fazer o mesmo. Agora, sabemos que o Google está fazendo a mesma coisa”.