Anthropic’s co-fundadores afirmam que seus modelos de IA estão aprendendo lições dos danos das redes sociais

A missão da OpenAI tem se concentrado em trazer a inteligência artificial para uma escala, enquanto seu rival Anthropic tem se concentrado na segurança e proteção. E seus co-fundadores, os irmãos e ex-funcionários da OpenAI Daniela e Dario Amodei, afirmam que suas preocupações sobre o potencial de dano da IA surgem ao observar a evolução de outras tecnologias.

“Sentimos muito fortemente que há lições a serem aprendidas a partir das ondas anteriores de tecnologia ou inovação”, disse Daniela Amodei em uma entrevista ao Bloomberg Technology Summit. “Tivemos várias décadas para olhar para coisas como as redes sociais e perceber que, embora muitas coisas boas tenham ocorrido, também houve muitos danos causados por essa tecnologia. Se poderíamos ter antecipado isso, é difícil dizer, mas estamos tentando ser os atores mais responsáveis possíveis e pensar sobre quais são as possíveis externalidades que poderiam ser causadas acidentalmente por essa tecnologia”, acrescentou.

O risco da inteligência artificial generativa tem sido mais evidente no último ano, à medida que mais chatbots de mais empresas têm sido lançados. O Copilot da Microsoft sugeriu auto-dano a um usuário, o ChatGPT da OpenAI criou pesquisas legais falsas, e o Gemini do Google produziu imagens historicamente imprecisas, para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas têm sido usados para difamar suas vítimas e espalhar desinformação.

Os Amodeis deixaram a OpenAI em 2020 devido a preocupações de que as tecnologias de inteligência artificial generativa estavam se expandindo muito rapidamente sem salvaguardas adequadas, e queriam construir um modelo mais confiável. Eles trabalharam para isso com o chatbot Claude da Anthropic, que se anuncia como uma ferramenta “segura, precisa e segura”. A última iteração do produto da Anthropic, o Claude 3, foi considerado um dos modelos de IA mais poderosos, se não o mais poderoso, com os Amodeis afirmando que pode superar o ChatGPT-4. A startup tem o apoio da Amazon e do Google.

O “Constitutional AI” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Tais esforços, afirmam os Amodeis, estão pressionando toda a indústria a criar modelos mais seguros e responsáveis.

“Pioneiramos esse conceito de um plano de escala responsável, que é um framework projetado para ajudar as empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes”, disse Dario Amodei. “Nós divulgamos isso em setembro passado, e em poucos meses a OpenAI divulgou algo semelhante. Realmente pareceu para nós que ao divulgarmos o nosso, ajudamos a impulsionar os esforços dos outros. Agora ouvimos que o Google está fazendo a mesma coisa.”