O Futuro da Inteligência Artificial Dependente da Lei da Califórnia

Um projeto de lei da Califórnia que tenta regular grandes modelos de IA de fronteira está criando um impasse dramático sobre o futuro da IA. Por anos, a IA tem sido dividida em “aceleradores” e “desaceleradores”. Os aceleradores querem que a IA progrida rapidamente – mova-se rápido e quebre coisas – enquanto os desaceleradores querem que o desenvolvimento da IA diminua em prol da humanidade. A batalha entrou em destaque nacional quando o conselho da OpenAI afastou brevemente Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei da Califórnia está fazendo dessa luta uma questão política.

O que é o SB 1047?
SB 1047 é um projeto de lei estadual da Califórnia que tornaria os provedores de grandes modelos de IA, como Meta, OpenAI, Anthropic e Mistral, responsáveis pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, escrito pelo senador estadual Scott Wiener, passou pelo Senado da Califórnia em maio e superou mais um grande obstáculo para se tornar lei esta semana.

Por que devo me importar?
Bem, isso poderia se tornar a primeira regulamentação real de IA nos EUA com qualquer peso, e está acontecendo na Califórnia, onde estão todas as grandes empresas de IA.

Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e comuns para desenvolvedores dos sistemas de IA mais amplos e poderosos.” No entanto, nem todos veem dessa forma. Muitos no Vale do Silício estão soando o alarme de que essa lei matará a era da IA antes mesmo de começar.

O que SB 1047 realmente faz?
SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, especificamente destacando seu papel na criação de “eventos de grande número de vítimas”. Por mais absurdo que isso possa parecer, é importante porque o Vale do Silício historicamente evitou a maioria das responsabilidades por seus danos. O projeto de lei dá poder ao Procurador Geral da Califórnia para iniciar ações legais contra essas empresas se um de seus modelos de IA causar danos graves aos californianos.

SB 1047 também inclui uma cláusula de “desligamento” que efetivamente exige que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência.

O projeto de lei também cria a “Divisão de Modelos de Fronteira” dentro da Agência de Operações do Governo da Califórnia. Esse grupo “forneceria orientação” aos provedores de modelos de IA de fronteira sobre os padrões de segurança com os quais cada empresa teria que cumprir. Se as empresas não considerarem as recomendações da Divisão, poderiam ser processadas e enfrentar penalidades civis.

Quem apoia este projeto de lei?
Além do senador Wiener, dois pesquisadores proeminentes em IA, às vezes chamados de “Padrinhos da IA”, Geoffrey Hinton e Yoshua Bengio, colocaram seus nomes neste projeto de lei. Esses dois têm sido muito proeminentes em emitir alertas sobre os perigos da IA.

De forma mais ampla, esse projeto de lei está alinhado com a perspectiva de desaceleração, que acredita que a IA tem uma probabilidade relativamente alta de acabar com a humanidade e deve ser regulamentada como tal. A maioria dessas pessoas são pesquisadores de IA e não estão tentando ativamente mercantilizar um produto de IA, já que eles acreditam que isso poderia acabar com a humanidade.

O projeto de lei é patrocinado pelo Centro de Segurança da IA, liderado por Dan Hendrycks. Seu grupo publicou uma carta aberta em maio de 2023 dizendo que o risco da IA para a extinção humana deve ser levado tão a sério quanto guerras nucleares ou pandemias. Foi assinado por Sam Altman, Bill Gates, Grimes, e muitas pessoas influentes em tecnologia. Eles são um grupo influente e um ator-chave na promoção deste projeto de lei.

Em março de 2023, os desaceleradores pediram uma “pausa” em todo desenvolvimento de IA para implementar infraestrutura de segurança. Embora pareça extremo, há muitas pessoas inteligentes na comunidade de IA que realmente acreditam que a IA poderia acabar com a humanidade. A ideia deles é que se houver alguma probabilidade de a IA acabar com a humanidade, provavelmente deveríamos regulá-la estritamente, apenas por precaução.

Isso faz sentido. Então, quem é contra o SB 1047?
Se você está no X, parece que todos no Vale do Silício são contra o SB 1047. Capitalistas de risco, fundadores de startups, pesquisadores de IA e líderes da comunidade de IA de código aberto odeiam esse projeto de lei. Em geral, categorizaria essas pessoas como “aceleradoras” ou, pelo menos, é aí que elas se posicionam sobre essa questão. Muitos deles estão no negócio de IA, mas alguns são pesquisadores também.

O sentimento geral é que o SB 1047 poderia forçar os provedores de modelos de IA como Meta e Mistral a reduzir ou parar completamente seus esforços de código aberto. Este projeto de lei os responsabiliza por pessoas mal-intencionadas que usam seus modelos de IA, e essas empresas podem não assumir essa responsabilidade devido às dificuldades de impor restrições à IA generativa e à natureza aberta dos produtos.

“Isto irá matar, esmagar e retardar totalmente o ecossistema de startups de código aberto”, disse Anjney Midha, parceiro geral da A16Z e diretor do conselho da Mistral, em uma entrevista ao Gizmodo. “Este projeto de lei é semelhante a tentar reprimir o progresso da imprensa, em vez de focar onde deveria ser, que são os usos da imprensa.”

“O código aberto é nossa melhor esperança de permanecer à frente ao reunir testes de segurança transparentes para modelos emergentes, em vez de permitir que algumas empresas poderosas controlem a IA em segredo”, disse Ion Stoica, professor de ciência da computação em Berkeley e presidente executivo da Databricks, em uma entrevista.

Midha e Stoica não são os únicos que veem a regulamentação da IA como existencial para a indústria. A IA de código aberto impulsionou a cena de startups do Vale do Silício mais próspera em anos. Os oponentes do SB 1047 dizem que o projeto de lei beneficiará os incumbentes fechados das grandes empresas de tecnologia em vez desse ecossistema aberto próspero.

“Eu realmente vejo isso como uma maneira de estrangular o desenvolvimento de IA de código aberto, como parte de uma estratégia mais ampla de retardar a IA”, disse Jeremy Nixon, criador da AGI House, que serve como um centro para os hackathons de IA de código aberto do Vale do Silício. “O projeto de lei vem de uma comunidade que está muito interessada em fazer uma pausa na IA em geral.”

Isso parece muito técnico. Os legisladores conseguem acertar tudo isso?
Certamente é técnico, e isso criou alguns problemas. O SB 1047 se aplica apenas a modelos de fronteira “grandes”, mas o quão grande é grande? O projeto de lei define como modelos de IA treinados em 10^26 FLOPS e custando mais de US $100 milhões para treinar, uma quantidade específica e muito grande de poder de computação pelos padrões de hoje. O problema é que a IA está crescendo muito rapidamente, e os modelos de ponta de 2023 parecem pequenos em comparação com os padrões de 2024. Fixar uma bandeira na areia não funciona bem para um campo que se move tão rapidamente.

Também não está claro se é possível evitar totalmente que os sistemas de IA se comportem mal. A verdade é que não sabemos muito sobre como os LLMs funcionam, e os modelos de IA líderes da OpenAI, Anthropic e Google são “jailbroken” o tempo todo. É por isso que alguns pesquisadores estão dizendo que os reguladores devem se concentrar nos atores mal-intencionados, e não nos provedores de modelos.

“Com a IA, você precisa regulamentar o caso de uso, a ação, e não os modelos em si”, disse Ravid Shwartz Ziv, professor assistente estudando IA na NYU ao lado de Yann Lecunn, em uma entrevista. “Os melhores pesquisadores do mundo podem passar períodos infinitos de tempo em um modelo de IA, e as pessoas ainda são capazes de jailbreak.”

Outro aspecto técnico deste projeto de lei diz respeito aos modelos de IA de código aberto. Se uma startup pega o Llama 3 da Meta, um dos modelos de IA de código aberto mais populares, e o ajusta para se tornar algo perigoso, a Meta ainda é responsável por esse modelo de IA?

Por enquanto, o Llama da Meta não atende ao critério de “modelo coberto”, mas provavelmente atenderá no futuro. Sob este projeto de lei, parece que a Meta certamente poderia ser responsabilizada. Há uma ressalva de que se um desenvolvedor gastar mais de 25% do custo para treinar o Llama 3 no ajuste fino, esse desenvolvedor agora é responsável. Dito isso, os oponentes do projeto de lei ainda consideram isso injusto e não a abordagem correta.

Pergunta rápida: a IA realmente é liberdade de expressão?
Incerto. Muitas pessoas na comunidade de IA veem a IA de código aberto como uma espécie de liberdade de expressão (é por isso que Midha a referiu como uma imprensa). A premissa é que o código subjacente a um modelo de IA é uma forma de expressão, e as saídas do modelo também são expressões. O código historicamente se enquadrou na Primeira Emenda em vários casos.

Três professores de direito argumentaram em um artigo do Lawfare que os modelos de IA não são exatamente liberdade de expressão. Para eles, os pesos que compõem um modelo de IA não são escritos por humanos, mas criados por vastas operações de aprendizado de máquina. Os seres humanos mal conseguem lê-los.

Quanto às saídas dos modelos de IA de fronteira, esses sistemas são um pouco diferentes dos algoritmos de mídia social, que já foram considerados como caindo sob a Primeira Emenda no passado. Os modelos de IA não exatamente têm um ponto de vista, eles dizem muitas coisas. Por esse motivo, esses professores de direito dizem que o SB 1047 pode não infringir a Primeira Emenda.

Então, e agora?
O projeto de lei está correndo em direção a uma votação que se aproxima rapidamente em agosto, que enviaria o projeto de lei para a mesa do governador Gavin Newsom. Ele precisa superar mais alguns obstáculos importantes para chegar lá, e mesmo assim, Newsom pode não assiná-lo devido à pressão do Vale do Silício. Um grande grupo comercial de tecnologia acabou de enviar uma carta para Newsom dizendo para ele não assinar o SB 1047.

No entanto, Newsom pode querer estabelecer um precedente para a nação sobre a IA. Se o SB 1047 entrar em vigor, poderá mudar radicalmente o cenário da IA na América.

Correção, 25 de junho: Uma versão anterior deste artigo não definiu o que são “danos críticos”. Também afirmou que o Llama 3 da Meta poderia ser afetado, mas o modelo de IA não é grande o suficiente no momento. Provavelmente será afetado no futuro. Por último, a Divisão de Modelos de Fronteira foi transferida para a Agência de Operações do Governo da Califórnia, e não para o Departamento de Tecnologia. Esse grupo não tem poder de fiscalização no momento.