O Futuro da IA Tende a Equilibrar com a Lei da Califórnia

Um projeto de lei da Califórnia que tenta regular grandes modelos de IA de fronteira está criando um impasse dramático sobre o futuro da IA. Por anos, a IA tem sido dividida em “aceleradores” e “desaceleradores”. Os aceleradores querem que a IA progrida rapidamente – avançar rapidamente e quebrar coisas – enquanto os desaceleradores querem que o desenvolvimento da IA desacelere em nome da humanidade. A batalha ganhou destaque nacional quando a diretoria da OpenAI afastou brevemente Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei da Califórnia está transformando essa luta em uma questão política.

O que é o SB 1047? O SB 1047 é um projeto de lei estadual da Califórnia que responsabilizaria os grandes provedores de modelos de IA – como Meta, OpenAI, Anthropic e Mistral – pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, de autoria do senador estadual Scott Wiener, passou pelo Senado da Califórnia em maio e superou mais um grande obstáculo ao se tornar lei nesta semana.

Por que eu deveria me importar? Bem, poderia se tornar a primeira regulamentação de IA real nos EUA com alguma eficácia, e está acontecendo na Califórnia, onde estão todas as principais empresas de IA.

Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e sensatos para os desenvolvedores dos maiores e mais poderosos sistemas de IA”. No entanto, nem todos veem dessa forma. Muitos no Vale do Silício estão soando alarmes de que essa lei acabará com a era da IA antes mesmo de começar.

O que SB 1047 realmente faz? O SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, citando especificamente seu papel na criação de “eventos com grande número de vítimas”. Por mais absurdo que isso possa parecer, é importante porque o Vale do Silício historicamente evitou a maior parte da responsabilidade por seus impactos negativos. O projeto de lei capacita o Procurador Geral da Califórnia a tomar medidas legais contra essas empresas se um de seus modelos de IA causar danos graves aos californianos.

O SB 1047 também inclui uma disposição de “desligamento” que efetivamente exige que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência.

O projeto de lei também cria a “Divisão de Modelos de Fronteira” dentro da Agência de Operações do Governo da Califórnia. Esse grupo forneceria “orientação” a esses provedores de modelos de IA de fronteira sobre os padrões de segurança com os quais cada empresa teria que cumprir. Se as empresas não considerarem as recomendações da Divisão, poderiam ser processadas e enfrentar penalidades civis.

Quem apoia este projeto de lei? Além do senador Wiener, dois proeminentes pesquisadores de IA às vezes chamados de “Pais da IA”, Geoffrey Hinton e Yoshua Bengio, colocaram seus nomes neste projeto de lei. Esses dois têm sido muito proeminentes em emitir alertas sobre os perigos da IA.

Mais amplamente, este projeto de lei está alinhado com a perspectiva de desaceleração, que acredita que a IA tem uma probabilidade relativamente alta de acabar com a humanidade e deve ser regulamentada como tal. A maioria dessas pessoas são pesquisadoras de IA e não estão tentando ativamente comercializar um produto de IA, já que, afinal, acham que isso poderia acabar com a humanidade.

O projeto de lei é patrocinado pelo Centro de Segurança de IA, liderado por Dan Hendrycks. Seu grupo publicou uma carta aberta em maio de 2023 dizendo que o risco da IA para a extinção da humanidade deve ser levado tão a sério quanto guerras nucleares ou pandemias. Foi assinado por Sam Altman, Bill Gates, Grimes e muitas pessoas influentes do setor de tecnologia. Eles são um grupo influente e um ator-chave na promoção deste projeto de lei.

Em março de 2023, os desaceleradores pediram uma “pausa” em todo o desenvolvimento de IA para implementar infraestrutura de segurança. Embora pareça extremo, há muitas pessoas inteligentes na comunidade de IA que realmente acreditam que a IA poderia acabar com a humanidade. A ideia deles é que se houver qualquer probabilidade de a IA acabar com a humanidade, provavelmente devemos regulamentá-la estritamente, apenas por precaução.

Isso faz sentido. Então, quem é contra o SB 1047? Se você está no meio, parece que todos no Vale do Silício são contra o SB 1047. Capitalistas de risco, fundadores de startups, pesquisadores de IA e líderes da comunidade de IA de código aberto odeiam este projeto de lei. Eu geralmente categorizaria essas pessoas como aceleradores, ou pelo menos é assim que elas se posicionam nessa questão. Muitos deles estão no ramo de IA, mas alguns também são pesquisadores.

O sentimento geral é que o SB 1047 poderia forçar os provedores de modelos de IA, como Meta e Mistral, a reduzir ou interromper completamente seus esforços de código aberto. Este projeto de lei os responsabiliza por ações ruins de pessoas que usam seus modelos de IA, e essas empresas podem não assumir essa responsabilidade devido à dificuldade de impor restrições à IA generativa e à natureza aberta dos produtos.

“Isso vai matar, esmagar e desacelerar completamente o ecossistema de startups de código aberto”, disse Anjney Midha, sócio-gerente da A16Z e diretor do conselho da Mistral, em entrevista ao Gizmodo. “Este projeto de lei é comparável a tentar frear o progresso da imprensa, em vez de focar onde deveria, que são os usos da imprensa.”

“O código aberto é nossa melhor esperança de ficar à frente, reunindo testes de segurança transparentes para modelos emergentes, em vez de permitir que algumas empresas poderosas controlem a IA em segredo”, disse Ion Stoica, professor de ciência da computação da Universidade da Califórnia em Berkeley e presidente executivo da Databricks, em uma entrevista.

Midha e Stoica não são os únicos que veem a regulamentação da IA como existencial para o setor. A IA de código aberto alimentou o mais próspero cenário de startups do Vale do Silício em anos. Os opositores do SB 1047 afirmam que o projeto de lei beneficiará os incumbentes fechados das grandes empresas de tecnologia em vez do ecossistema aberto e próspero.

“Realmente vejo isso como uma forma de estrangular o desenvolvimento de IA de código aberto, como parte de uma estratégia mais ampla para diminuir a IA”, disse Jeremy Nixon, criador da AGI House, que serve como um centro para hackathons de IA de código aberto do Vale do Silício. “O projeto de lei vem de uma comunidade muito interessada em pausar a IA de maneira geral.”

Isso soa realmente técnico. Os legisladores podem acertar tudo isso? Absolutamente é técnico, e isso criou alguns problemas. O SB 1047 se aplica apenas a modelos de fronteira “grandes”, mas o que é grande? O projeto de lei define isso como modelos de IA treinados em 10^26 FLOPS e custando mais de $100 milhões para treinar, uma quantidade específica e muito grande de poder computacional pelos padrões atuais. O problema é que a IA está crescendo muito rápido, e os modelos de ponta de 2023 parecem muito pequenos em comparação com os padrões de 2024. Fixar uma bandeira na areia não funciona bem para um campo se movendo tão rapidamente.

Também não está claro se é realmente possível evitar que os sistemas de IA se comportem mal. A verdade é que não sabemos muito sobre como os LLMs funcionam, e os modelos de IA líderes de hoje da OpenAI, Anthropic e Google são constantemente burlados. Por isso, alguns pesquisadores estão dizendo que os reguladores devem se concentrar nos maus atores, e não nos provedores de modelos.

“Com a IA, você precisa regular o caso de uso, a ação, e não os modelos em si”, disse Ravid Shwartz Ziv, professor assistente estudando IA na NYU ao lado de Yann Lecunn, em uma entrevista. “Os melhores pesquisadores do mundo podem gastar quantidades infinitas de tempo em um modelo de IA, e as pessoas ainda são capazes de burlá-lo.”

Outra parte técnica deste projeto de lei diz respeito aos modelos de IA de código aberto. Se uma startup pega o Llama 3 da Meta, um dos modelos de IA de código aberto mais populares, e o ajusta para se tornar algo perigoso, a Meta ainda é responsável por esse modelo de IA?

Por enquanto, o Llama da Meta não atinge o limite para um “modelo coberto”, mas provavelmente atingirá no futuro. Sob este projeto de lei, parece que a Meta certamente poderia ser responsabilizada. Há uma ressalva de que se um desenvolvedor gastar mais de 25% do custo para treinar o Llama 3 em ajustes, esse desenvolvedor agora é responsável. Dito isso, os opositores do projeto de lei ainda acham isso injusto e não o abordagem correta.

Uma pergunta rápida: a IA é realmente liberdade de expressão? Não é claro. Muitos na comunidade de IA veem a IA de código aberto como uma forma de liberdade de expressão (é por isso que Midha se referiu a isso como uma imprensa). A premissa é que o código subjacente a um modelo de IA é uma forma de expressão, e as saídas do modelo também são expressões. O código historicamente se enquadra na Primeira Emenda em vários casos.

Três professores de direito argumentaram em um artigo do Lawfare que os modelos de IA não são exatamente liberdade de expressão. Para começar, eles dizem que os pesos que compõem um modelo de IA não são escritos por seres humanos, mas criados por vastas operações de aprendizado de máquina. Os humanos mal conseguem lê-los.

Quanto às saídas dos modelos de IA de fronteira, esses sistemas são um pouco diferentes dos algoritmos de mídia social, que já foram considerados como caindo sob a Primeira Emenda no passado. Os modelos de IA não têm exatamente um ponto de vista, eles dizem muitas coisas. Por esse motivo, esses professores de direito afirmam que o SB 1047 pode não infringir a Primeira Emenda.