O Futuro da IA Está em Jogo com a Lei da Califórnia

Um projeto de lei na Califórnia que tenta regular grandes modelos de inteligência artificial está criando um impasse dramático sobre o futuro da IA. Por anos, a IA tem sido dividida em “acelerar” e “desacelerar”. Os aceleradores querem que a IA progrida rapidamente – ande rápido e quebre coisas – enquanto os desaceleradores querem que o desenvolvimento da IA diminua em prol da humanidade. A batalha ganhou destaque nacional quando o conselho da OpenAI brevemente afastou Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei na Califórnia está tornando essa luta política.

O que é o SB 1047?
SB 1047 é um projeto de lei estadual da Califórnia que tornaria os provedores de grandes modelos de IA – como Meta, OpenAI, Anthropic e Mistral – responsáveis ​​pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, de autoria do Senador Estadual Scott Wiener, passou pelo Senado da Califórnia em maio e superou outro grande obstáculo para se tornar lei esta semana.

Por que devo me importar?
Bem, poderia se tornar a primeira regulamentação real de IA nos EUA com algum poder, e está acontecendo na Califórnia, onde todas as principais empresas de IA estão. Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e sensatos para os desenvolvedores dos maiores e mais poderosos sistemas de IA.” No entanto, nem todos o veem dessa forma. Muitos no Vale do Silício estão levantando alarmes de que essa lei vai matar a era da IA antes mesmo de começar.

O que o SB 1047 realmente faz?
O SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, especificamente mencionando seu papel na criação de “eventos de morte em massa”. Por mais absurdo que isso possa parecer, é importante porque o Vale do Silício historicamente evitou a maioria das responsabilidades por seus danos.

Além disso, o projeto de lei inclui uma disposição de “desligamento” que efetivamente exige que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência.

O projeto de lei também cria a “Divisão de Modelos de Fronteira” dentro da Agência de Operações do Governo da Califórnia. Esse grupo “forneceria orientações” a esses provedores de modelos de IA de fronteira sobre os padrões de segurança com os quais cada empresa teria que cumprir. Se as empresas não considerarem as recomendações da Divisão, poderiam ser processadas e enfrentar penalidades civis.

Quem apoia este projeto de lei?
Além do Senador Wiener, dois proeminentes pesquisadores de IA às vezes chamados de “Padrinhos da IA”, Geoffrey Hinton e Yoshua Bengio, colocaram seus nomes neste projeto de lei. Esses dois têm sido muito proeminentes em emitir alertas sobre os perigos da IA.

De forma mais ampla, este projeto de lei se alinha com a perspectiva de desaceleração, que acredita que a IA tem uma probabilidade relativamente alta de acabar com a humanidade e deve ser regulamentada como tal. A maioria dessas pessoas são pesquisadoras de IA e não estão tentando ativamente comercializar um produto de IA, já que, você sabe, elas acham que poderia acabar com a humanidade.

O projeto de lei é patrocinado pelo Center for AI Safety, liderado por Dan Hendrycks. Seu grupo publicou uma carta aberta em maio de 2023 afirmando que o risco da IA para a extinção humana deve ser levado tão a sério quanto guerras nucleares ou pandemias. A carta foi assinada por Sam Altman, Bill Gates, Grimes e muitas pessoas influentes da tecnologia. Eles são um grupo influente e um jogador-chave na promoção deste projeto de lei.

Em março de 2023, os desaceleradores pediram uma “pausa” em todo o desenvolvimento de IA para implementar infraestrutura de segurança. Embora pareça extremo, há muitas pessoas inteligentes na comunidade de IA que realmente acreditam que a IA poderia acabar com a humanidade. A ideia deles é que se houver alguma probabilidade de a IA acabar com a humanidade, provavelmente deveríamos regulamentá-la estritamente, apenas por precaução.

Isso faz sentido. Então, quem é contra o SB 1047?
Se você pertence ao grupo X, parece que todo mundo no Vale do Silício é contra o SB 1047. Capitalistas de risco, fundadores de startups, pesquisadores de IA e líderes da comunidade de IA de código aberto odeiam esse projeto de lei. Eu geralmente categorizaria essas pessoas como aceleradores, ou pelo menos é onde elas se posicionam nessa questão. Muitos deles estão no negócio de IA, mas alguns também são pesquisadores.

O sentimento geral é que o SB 1047 poderia forçar os provedores de modelos de IA, como Meta e Mistral, a reduzir ou parar completamente seus esforços de código aberto. Este projeto de lei os torna responsáveis ​​por maus atores que usam seus modelos de IA, e essas empresas podem não aceitar essa responsabilidade devido às dificuldades de impor restrições à IA generativa e à natureza aberta dos produtos.

“Isso vai acabar, esmagar e retardar completamente o ecossistema de startups de código aberto”, disse Anjney Midha, sócio-gerente da A16Z e diretor do conselho da Mistral, em uma entrevista ao Gizmodo. “Este projeto de lei é semelhante a tentar reprimir o progresso da imprensa, em vez de focar onde deveria estar, que são os usos da imprensa.”

“O código aberto é nossa melhor esperança para permanecer à frente, reunindo testes de segurança transparentes para modelos emergentes, em vez de permitir que algumas empresas poderosas controlem a IA em segredo”, disse Ion Stoica, professor de Ciência da Computação da Berkeley e presidente executivo da Databricks, em uma entrevista.

Midha e Stoica não são os únicos que veem a regulamentação da IA como existencial para a indústria. A IA de código aberto impulsionou a cena de startups mais próspera do Vale do Silício nos últimos anos. Os opositores do SB 1047 dizem que o projeto de lei beneficiará os incumbentes fechados do Big Tech em vez desse ecossistema aberto e próspero.

“Eu realmente vejo isso como uma maneira de restringir o desenvolvimento de IA de código aberto, como parte de uma estratégia mais ampla para retardar a IA”, disse Jeremy Nixon, criador da AGI House, que serve como um hub para hackathons de IA de código aberto do Vale do Silício. “O projeto de lei vem de uma comunidade muito interessada em pausar a IA em geral.”

Isso parece realmente técnico. Os legisladores podem acertar tudo isso?
Absolutamente, é técnico, o que criou alguns problemas. O SB 1047 se aplica apenas a modelos de fronteira “grandes”, mas o que é grande? O projeto de lei define como modelos de IA treinados com 10^26 FLOPS e custando mais de US$ 100 milhões para treinar, uma quantidade específica e muito grande de poder de computação pelos padrões atuais. O problema é que a IA está crescendo muito rápido, e os modelos de última geração de 2023 parecem pequenos em comparação com os padrões de 2024. Fixar uma bandeira na areia não funciona bem para um campo que está se movendo tão rapidamente.

Também não está claro se é possível impedir completamente que os sistemas de IA se comportem mal. A verdade é que não sabemos muito sobre como funcionam os LLMs, e os principais modelos de IA de hoje da OpenAI, Anthropic e Google estão sendo burlados o tempo todo. Por isso, alguns pesquisadores estão dizendo que os reguladores devem se concentrar nos atores ruins, e não nos provedores de modelos.

“Com a IA, é preciso regular o caso de uso, a ação, e não os modelos em si”, disse Ravid Shwartz Ziv, professor assistente estudando IA na NYU ao lado de Yann Lecunn, em uma entrevista. “Os melhores pesquisadores do mundo podem passar um tempo infinito em um modelo de IA, e as pessoas ainda são capazes de burlá-lo.”

Outra questão técnica deste projeto de lei diz respeito aos modelos de IA de código aberto. Se uma startup pegar o Llama 3 da Meta, um dos modelos de IA de código aberto mais populares, e o ajustar para ser algo perigoso, a Meta ainda é responsável por esse modelo de IA?

Por enquanto, o Llama da Meta não atende ao critério de “modelo coberto”, mas provavelmente o fará no futuro. Sob este projeto de lei, parece que a Meta certamente poderia ser responsabilizada. Há uma ressalva de que se um desenvolvedor gastar mais de 25% do custo para treinar o Llama 3 no ajuste fino, esse desenvolvedor agora será responsável. Dito isso, os opositores do projeto de lei ainda consideram isso injusto e não a abordagem certa.

A IA é realmente liberdade de expressão?
Não está claro. Muitas pessoas na comunidade de IA veem a IA de código aberto como uma forma de liberdade de expressão (é por isso que Midha se referiu a ela como uma imprensa). A premissa é que o código subjacente a um modelo de IA é uma forma de expressão, e as saídas do modelo também são expressões. O código historicamente se encaixa na Primeira Emenda em vários casos.

Três professores de direito argumentaram em um artigo da Lawfare que os modelos de IA não são exatamente liberdade de expressão. Para eles, os pesos que compõem um modelo de IA não são compostos por humanos, mas criados por vastas operações de aprendizado de máquina. Os humanos mal conseguem lê-los.

Quanto às saídas dos modelos de IA de fronteira, esses sistemas são um pouco diferentes dos algoritmos de mídia social, que já foram considerados como sendo abrangidos pela Primeira Emenda no passado. Os modelos de IA não exatamente adotam um ponto de vista, eles dizem muitas coisas. Por esse motivo, esses professores de direito dizem que o SB 1047 pode não infringir a Primeira Emenda.

Então, o que vem a seguir?
O projeto de lei está correndo em direção a uma votação que se aproxima rapidamente em agosto, que enviará o projeto de lei para a mesa do governador Gavin Newsom. Ele precisa superar mais alguns obstáculos importantes para chegar lá, e mesmo assim, Newsom pode não assiná-lo devido à pressão do Vale do Silício. Um grande grupo de negócios de tecnologia acabou de enviar a Newsom uma carta pedindo que ele não assine o SB 1047.

No entanto, Newsom pode querer estabelecer um precedente para o país sobre a IA. Se o SB 1047 entrar em vigor, poderia mudar radicalmente a paisagem da IA na América.

(Correção, 25 de junho: uma versão anterior deste artigo não definiu o que são “danos críticos”. Também afirmava que o Llama 3 da Meta poderia ser afetado, mas o modelo de IA não é grande o suficiente no momento. Provavelmente será afetado no futuro. Por fim, a Divisão de Modelos de Fronteira foi transferida para a Agência de Operações do Governo da Califórnia, e não para o Departamento de Tecnologia. Esse grupo não tem poder de execução no momento.)