O Futuro da AI Fica em Suspense com Lei da Califórnia

Um projeto de lei na Califórnia que tenta regular grandes modelos de inteligência artificial está criando um impasse dramático sobre o futuro da IA. Por anos, a IA foi dividida em “acelerar” e “desacelerar”. Os aceleradores querem que a IA progrida rapidamente – avance rapidamente e quebre coisas – enquanto os desaceleradores querem que o desenvolvimento da IA diminua em prol da humanidade. A batalha ganhou destaque nacional quando a diretoria da OpenAI afastou brevemente Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei da Califórnia está tornando essa luta política.

O que é o SB 1047? O SB 1047 é um projeto de lei estadual da Califórnia que tornaria os provedores de grandes modelos de IA – como Meta, OpenAI, Anthropic e Mistral – responsáveis pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, elaborado pelo senador estadual Scott Wiener, passou pelo senado da Califórnia em maio e superou mais um grande obstáculo para se tornar lei nesta semana.

Por que eu deveria me importar? Bem, esse poderia se tornar o primeiro verdadeiro regulamento de IA nos EUA com algum dentes, e está acontecendo na Califórnia, onde estão todas as principais empresas de IA.

Wiener descreve o projeto de lei como estabelecendo “padrões claros, previsíveis e sensatos de segurança para os desenvolvedores dos maiores e mais poderosos sistemas de IA.” No entanto, nem todos veem dessa forma. Muitos no Vale do Silício estão soando alarmes de que essa lei pode matar a era da IA antes mesmo de começar.

O que o SB 1047 realmente faz? O SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, especificamente destacando seu papel na criação de “eventos com múltiplas vítimas”. Por mais extravagante que isso possa parecer, isso é importante porque o Vale do Silício historicamente evitou grande parte da responsabilidade por seus danos. O projeto de lei capacita o procurador-geral da Califórnia a tomar medidas legais contra essas empresas se um de seus modelos de IA causar danos graves aos californianos.

O SB 1047 também inclui uma disposição de “desligamento” que efetivamente exige que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência.

O projeto de lei também cria a “Divisão de Modelos Fronteiriços” dentro da Agência de Operações do Governo da Califórnia. Esse grupo forneceria “orientações” para esses provedores de modelos de IA de fronteira sobre os padrões de segurança com os quais cada empresa teria que cumprir. Se as empresas não aceitarem as recomendações da Divisão, poderão ser processadas e enfrentar penalidades civis.

Quem apoia este projeto de lei? Além do senador Wiener, dois proeminentes pesquisadores de IA que são às vezes chamados de “Padrinhos da IA”, Geoffrey Hinton e Yoshua Bengio, colocaram seus nomes neste projeto de lei. Esses dois têm sido muito proeminentes em emitir alertas sobre os perigos da IA.

De modo mais amplo, este projeto de lei está alinhado com a perspectiva de desacelerar, que acredita que a IA tem uma probabilidade relativamente alta de acabar com a humanidade e deve ser regulamentada como tal. A maioria dessas pessoas são pesquisadores de IA e não estão tentando ativamente comercializar um produto de IA, já que, sabe, eles acham que isso poderia acabar com a humanidade.

O projeto de lei é patrocinado pelo Centro de Segurança de IA, liderado por Dan Hendrycks. Seu grupo publicou uma carta aberta em maio de 2023, afirmando que o risco da IA para a extinção humana deve ser levado tão a sério quanto as guerras nucleares ou pandemias. A carta foi assinada por Sam Altman, Bill Gates, Grimes e muitas pessoas influentes da tecnologia. Eles são um grupo influente e um player-chave na promoção deste projeto de lei.

Em março de 2023, os desaceleradores pediram uma “pausa” em todo o desenvolvimento de IA para implementar infraestruturas de segurança. Embora pareça extremo, há muitas pessoas inteligentes na comunidade de IA que realmente acreditam que a IA poderia acabar com a humanidade. A ideia deles é que se houver alguma probabilidade de a IA acabar com a humanidade, devemos regulamentá-la estritamente, apenas por precaução.

Isso faz sentido. Então, quem é contra o SB 1047? Se você está em X, parece que todos no Vale do Silício são contra o SB 1047. Capitalistas de risco, fundadores de startups, pesquisadores de IA e líderes da comunidade de IA de código aberto odeiam este projeto de lei. Eu geralmente classificaria essas pessoas como aceleradores, ou pelo menos, é nisso que a maioria delas se encaixa nessa questão. Muitos deles estão no negócio de IA, mas alguns também são pesquisadores.

O sentimento geral é que o SB 1047 poderia forçar os provedores de modelos de IA, como Meta e Mistral, a reduzir ou parar completamente seus esforços de código aberto. Este projeto de lei os torna responsáveis por atores mal-intencionados que usam seus modelos de IA, e essas empresas podem não assumir essa responsabilidade devido às dificuldades de impor restrições à IA generativa e à natureza aberta dos produtos.

“Isso vai matar, esmagar e retardar completamente o ecossistema de startups de código aberto”, disse Anjney Midha, sócio-gerente da A16Z e diretor do conselho da Mistral, em uma entrevista ao Gizmodo. “Este projeto de lei é como tentar reprimir o progresso na impressão, em vez de focar onde deveria estar, que são os usos da impressão.”

“O código aberto é nossa melhor esperança de permanecer à frente, reunindo testes de segurança transparentes para modelos emergentes, em vez de permitir que algumas empresas poderosas controlem a IA em segredo”, disse Ion Stoica, professor de Ciência da Computação em Berkeley e presidente executivo da Databricks, em uma entrevista.

Midha e Stoica não são os únicos que veem a regulamentação da IA como existencial para a indústria. A IA de código aberto impulsionou a cena de startups mais próspera do Vale do Silício em anos. Os oponentes do SB 1047 dizem que o projeto de lei beneficiará os incumbentes fechados do Big Tech em vez desse ecossistema aberto e próspero.

“Realmente vejo isso como uma maneira de estrangular o desenvolvimento de AI de código aberto, como parte de uma estratégia mais ampla para desacelerar a IA”, disse Jeremy Nixon, criador da AGI House, que serve como um polo para os hackathons de IA de código aberto do Vale do Silício. “O projeto de lei vem de uma comunidade muito interessada em pausar a IA em geral.”

Isso parece muito técnico. Os legisladores podem acertar tudo isso? Sim, é realmente técnico, e isso criou alguns problemas. O SB 1047 se aplica apenas a modelos de fronteira “grandes”, mas o que significa grande? O projeto de lei define como modelos de IA treinados em 10^26 FLOPS e que custam mais de US$100 milhões para treinar, uma quantidade específica e muito grande de poder de computação pelos padrões atuais. O problema é que a IA está crescendo muito rápido, e os modelos de ponta de 2023 parecem pequenos em comparação com os padrões de 2024. Colocar uma bandeira na areia não funciona bem para um campo que está se movendo tão rapidamente.

Também não está claro se é possível evitar completamente que os sistemas de IA se comportem mal. A verdade é que não sabemos muito sobre como funcionam os LLMs, e os principais modelos de IA de hoje da OpenAI, Anthropic e Google são jailbroken o tempo todo. Por isso, alguns pesquisadores dizem que os reguladores deveriam se concentrar nos atores mal-intencionados, não nos provedores de modelos.

“Com a IA, você precisa regular o caso de uso, a ação, e não os modelos em si”, disse Ravid Shwartz Ziv, professor assistente estudando IA na NYU ao lado de Yann Lecunn, em uma entrevista. “Os melhores pesquisadores do mundo podem passar quantias infinitas de tempo em um modelo de IA, e as pessoas ainda são capazes de burlá-lo.”

Outra parte técnica deste projeto de lei diz respeito aos modelos de IA de código aberto. Se uma startup pega o Llama 3 da Meta, um dos modelos de IA de código aberto mais populares, e ajusta-o para se tornar algo perigoso, a Meta ainda é responsável por esse modelo de IA?

Por enquanto, o Llama da Meta não atinge o limite para um “modelo coberto”, mas provavelmente atingirá no futuro. Sob este projeto de lei, parece que a Meta certamente poderia ser responsabilizada. Há uma ressalva de que se um desenvolvedor gastar mais de 25% do custo de treinar o Llama 3 no ajuste fino, esse desenvolvedor será agora responsável. Dito isso, os oponentes do projeto de lei ainda consideram isso injusto e não a abordagem correta.

Pergunta rápida: a IA é realmente liberdade de expressão? Não está claro. Muitas pessoas na comunidade de IA veem a IA de código aberto como uma forma de liberdade de expressão (é por isso que Midha se referiu a ela como uma impressora). A premissa é que o código subjacente a um modelo de IA é uma forma de expressão, e as saídas do modelo também são expressões. O código historicamente se enquadra na Primeira Emenda em vários casos.

Três professores de direito argumentaram em um artigo do Lawfare que os modelos de IA não são exatamente liberdade de expressão. Por um lado, eles dizem que os pesos que compõem um modelo de IA não são escritos por humanos, mas criados por vastas operações de aprendizado de máquina. Os humanos mal conseguem lê-los.

Quanto às saídas dos modelos de IA de fronteira, esses sistemas são um pouco diferentes dos algoritmos de mídia social, que foram considerados cair sob a Primeira Emenda no passado. Os modelos de IA não exatamente têm um ponto de vista, eles dizem muitas coisas. Por esse motivo, esses professores de direito dizem que o SB 1047 pode não infringir a Primeira Emenda.

Então, e agora? O projeto de lei está correndo para uma votação em agosto que enviaria o projeto de lei para a mesa do governador Gavin Newsom. Tem que superar mais alguns obstáculos-chave para chegar lá, e mesmo assim, Newsom pode não assiná-lo devido à pressão do Vale do Silício. Um grande grupo de comércio de tecnologia acabou de enviar uma carta para Newsom pedindo que ele não assine o SB 1047.

No entanto, Newsom pode querer estabelecer um precedente para a nação sobre IA. Se o SB 1047 entrar em vigor, poderá mudar radicalmente o cenário da IA na América.

Correção, 25 de junho: Uma versão anterior deste artigo não definiu o que são “danos críticos”. Também afirmou que o Llama 3 da Meta poderia ser afetado, mas o modelo de IA não é grande o suficiente no momento. Provavelmente será afetado no futuro. Por fim, a Divisão de Modelos de Fronteira foi transferida para a Agência de Operações do Governo da Califórnia, e não para o Departamento de Tecnologia. Esse grupo não tem poder de fiscalização no momento.