Os Co-Fundadores da Anthropic Dizem que Seus Modelos de IA Estão Aprendendo Lições dos Danos das Redes Sociais

A missão da OpenAI tem se concentrado em trazer a inteligência artificial para uma escala maior, enquanto seu rival Anthropic tem focado na segurança. E seus cofundadores, irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações sobre o potencial de dano da IA têm origem na observação da evolução de outras tecnologias.

“Sentimos fortemente que há lições a serem aprendidas com ondas anteriores de tecnologia ou inovação”, disse Daniela Amodei durante uma entrevista no Bloomberg Technology Summit. “Tivemos várias décadas para olhar para trás em coisas como as redes sociais e perceber que, embora tenha havido muitos benefícios, também houve muitos prejuízos causados por essa tecnologia.”

“Se era possível antecipar esses prejuízos com antecedência, é difícil dizer, mas acho que estamos tentando ser os atores mais responsáveis que podemos ser e pensar sobre quais são as possíveis externalidades que poderiam ser causadas acidentalmente por essa tecnologia.”

Os riscos da IA generativa têm se destacado mais nos últimos tempos, à medida que mais chatbots de mais empresas entram em operação. O Copilot da Microsoft sugeriu auto-dano a um usuário, o ChatGPT da OpenAI criou pesquisas legais falsas e o Gemini do Google produziu imagens historicamente imprecisas, apenas para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas têm sido usados para difamar suas vítimas e espalhar desinformação.

Os Amodeis deixaram a OpenAI em 2020 devido a preocupações de que as tecnologias de inteligência artificial generativa estivessem se expandindo rapidamente sem salvaguardas adequadas, e eles queriam construir um modelo mais confiável. Eles trabalharam exatamente nisso com o chatbot Claude, da Anthropic, que se anuncia como uma ferramenta “segura, precisa e segura”. A última iteração do produto da Anthropic, Claude 3, foi considerada um dos modelos de IA mais poderosos, se não o mais poderoso, com os Amodeis afirmando que pode superar o ChatGPT-4. A startup é apoiada pela Amazon e Google.

O “Constitutional AI” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Esses esforços, dizem os Amodeis, estão pressionando a indústria em geral a criar modelos mais seguros e responsáveis.

“Pioneiramos o conceito de um plano responsável de expansão, que é um quadro projetado para ajudar as empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes”, disse Dario Amodei. “Lançamos isso em setembro passado, e em poucos meses a OpenAI lançou algo semelhante, e pareceu-nos que o fato de termos lançado o nosso ajudou a estimular os esforços de outros. Agora ouvimos que o Google está fazendo a mesma coisa.”