Os Fundadores da Anthropic Dizem Que Seus Modelos de IA Estão Tirando Lições Dos Danos das Redes Sociais

A missão da OpenAI tem se concentrado em trazer a inteligência artificial em larga escala, enquanto seu rival Antropica tem focado em segurança. E seus co-fundadores, os irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações sobre o potencial de dano da IA surgem ao observar a evolução de outras tecnologias.
“Sentimos fortemente que há lições a serem aprendidas com ondas tecnológicas anteriores ou inovação,” disse Daniela Amodei ao jornalista Brad Stone durante uma entrevista no Bloomberg Technology Summit. “Tivemos várias décadas para olhar para coisas como as redes sociais e dizer ‘Wow, sabe, houve muitos benefícios decorrentes disso, mas também houve muitos danos causados por essa tecnologia.”
“Se poderíamos ter antecipado isso antecipadamente, é difícil dizer, mas acho que estamos tentando ser os atores mais responsáveis que podemos ser e pensar sobre quais são as externalidades potenciais que poderiam ser causadas acidentalmente por essa tecnologia,” acrescentou ela.
Os riscos da IA generativa ganharam destaque no último ano, à medida que mais chatbots de mais empresas entraram online. O ChatGPT da OpenAI criou pesquisa legal falsa, o Copilot da Microsoft sugeriu auto-mutilação a um usuário, e o Gemini do Google produziu imagens historicamente imprecisas, apenas para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas foram usados para difamar suas vítimas e propagar desinformação.
Os Amodeis deixaram a OpenAI em 2020 por preocupações de que as tecnologias de inteligência artificial generativa estivessem crescendo muito rapidamente sem salvaguardas adequadas, e eles queriam construir um modelo mais confiável. Eles trabalharam exatamente nisso com o chatbot da Anthropic, Claude, que se apresenta como uma ferramenta “segura, precisa e segura”. A última iteração do produto da Anthropic, o Claude 3, foi apelidada de um dos modelos de IA mais poderosos, senão o mais poderoso, com os Amodeis alegando que ele pode superar o ChatGPT-4. A startup tem apoio da Amazon e do Google.
O “Constitutional AI” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Esses esforços, afirmam os Amodeis, estão pressionando a indústria em geral a criar modelos mais seguros e responsáveis.
“Pioneiramos este conceito de um plano de escalonamento responsável, que é uma estrutura projetada para ajudar as empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes,” disse Dario Amodei. “Lançamos isso em setembro passado, e em questão de meses a OpenAI lançou algo semelhante, e realmente nos pareceu que lançar o nosso ajudou a estimular os esforços dos outros. Agora ouvimos dizer que o Google está fazendo a mesma coisa.”