A missão da OpenAI tem se concentrado em trazer a inteligência artificial em grande escala, enquanto o rival Anthropic tem se concentrado na segurança. E seus co-fundadores, os irmãos e ex-funcionários da OpenAI, Daniela e Dario Amodei, afirmam que suas preocupações sobre o potencial prejudicial da IA têm origem na evolução de outras tecnologias.
“Sentimos fortemente que há algumas lições a serem aprendidas a partir de ondas anteriores de tecnologia ou inovação”, disse Daniela Amodei durante uma entrevista no Bloomberg Technology Summit na quinta-feira. “Temos tido várias décadas para olhar para trás em coisas como as redes sociais e dizer: ‘Uau, sabem, houve muitas coisas boas que surgiram disso, mas também houve muitos danos causados por essa tecnologia’.”
“Se poderíamos ter antecipado isso antecipadamente, é difícil dizer, mas acho que estamos tentando ser os atores mais responsáveis que podemos ser e pensar sobre quais são as possíveis externalidades que poderiam ser causadas acidentalmente por essa tecnologia”, acrescentou.
Os riscos da inteligência artificial generativa ganharam mais destaque no último ano, à medida que mais chatbots de mais empresas passaram a ser utilizados. O Copilot da Microsoft sugeriu autolesão a um usuário, o ChatGPT da OpenAI criou pesquisas legais falsas e o Gemini do Google criou imagens historicamente imprecisas, apenas para citar alguns exemplos. Enquanto isso, deepfakes de celebridades, políticos e jornalistas foram usados para difamar suas vítimas e semear desinformação.
Os Amodeis deixaram a OpenAI em 2020 por preocupações de que as tecnologias de inteligência artificial generativa estavam se expandindo rapidamente sem salvaguardas adequadas, e queriam construir um modelo mais confiável. Eles trabalharam exatamente nisso com o chatbot da Anthropic, Claude, que se anuncia como uma ferramenta “segura, precisa e segura”. A última iteração do produto da Anthropic, Claude 3, foi apelidada de um dos modelos de IA mais poderosos, se não o mais poderoso, com os Amodei afirmando que pode superar o ChatGPT-4. A startup tem suporte da Amazon e Google.
O “Constitutional AI” da Anthropic, um conjunto de regras para treinar sistemas de IA, ajuda a garantir que os modelos sejam treinados para evitar respostas tóxicas e discriminatórias. Tais esforços, dizem os Amodeis, estão pressionando a indústria em geral a criar modelos mais seguros e responsáveis.
“Pioneiramos o conceito de um plano de escala responsável, que é um framework projetado para ajudar as empresas de tecnologia a evitar os riscos de desenvolver sistemas de IA cada vez mais capazes”, disse Dario Amodei. “Lançamos isso em setembro passado, e em poucos meses a OpenAI lançou algo semelhante, e realmente nos pareceu que ao lançarmos o nosso ajudamos a estimular os esforços de outros. Agora ouvimos que o Google está fazendo o mesmo.”