Os Fundadores da Anthropic Dizem Que Seus Modelos de IA Estão Aprendendo Lições dos Danos das Redes Sociais

A missão da OpenAI tem focado em expandir a inteligência artificial em grande escala, enquanto seu rival Anthropic focou em segurança e proteção. Os co-fundadores, os irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações sobre o potencial prejudicial da IA vem da observação da evolução de outras tecnologias.

“Sentimos fortemente que há lições a serem aprendidas a partir de ondas anteriores de tecnologia ou inovação”, disse Daniela Amodei em uma entrevista no Bloomberg Technology Summit. “Temos várias décadas para olhar para trás em coisas como as redes sociais e dizer: ‘Wow, houve muitos benefícios gerados por isso, mas também muitos danos causados por essa tecnologia’.

“Se poderíamos ter antecipado isso previamente ou não, é difícil dizer, mas estamos tentando ser os atores mais responsáveis que podemos e pensar no que são as potenciais externalidades que podem ser causadas acidentalmente por essa tecnologia”, afirmou.

“Os riscos da inteligência artificial generativa entraram em foco nos últimos anos, à medida que mais chatbots de várias empresas entraram em operação. O Copilot da Microsoft sugeriu autolesão a um usuário, o ChatGPT da OpenAI criou pesquisas jurídicas falsas, e o Gemini da Google produziu imagens historicamente imprecisas, para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas têm sido usados para difamar suas vítimas e disseminar desinformação.

Os Amodeis deixaram a OpenAI em 2020 por preocupações de que as tecnologias de inteligência artificial generativa estavam se expandindo muito rapidamente sem salvaguardas adequadas, e eles queriam construir um modelo mais confiável. Eles têm trabalhado para alcançar isso com o chatbot da Anthropic, chamado Claude, que se anuncia como uma ferramenta “segura, precisa e segura”. A última iteração do produto da Anthropic, o Claude 3, foi considerada um dos modelos de IA mais poderosos, senão o mais poderoso, com os Amodeis afirmando que ele pode superar o ChatGPT-4. A startup é apoiada pela Amazon e Google.

O “Constitucional AI” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Esses esforços, dizem os Amodeis, estão pressionando a indústria como um todo a criar modelos mais seguros e responsáveis.

“Pioneiramos este conceito de um plano de escala responsável, que é um framework projetado para ajudar empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes”, disse Dario Amodei. “Lançamos isso em setembro passado, e dentro de alguns meses a OpenAI lançou algo semelhante, e realmente parecia que o nosso incentivo ajudou a estimular os esforços dos outros. Agora ouvimos que o Google está fazendo o mesmo”.