O Futuro da IA Pendura na Balança com Lei da Califórnia

Um projeto de lei da Califórnia que tenta regular grandes modelos de IA de vanguarda está criando um impasse dramático sobre o futuro da IA. Por anos, a IA tem sido dividida em “acelerar” e “desacelerar”. Os que aceleram querem que a IA progrida rapidamente – mover-se rápido e quebrar coisas – enquanto os que desaceleram querem que o desenvolvimento da IA desacelere em prol da humanidade. A batalha ganhou destaque nacional quando o conselho da OpenAI afastou brevemente Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei da Califórnia está transformando essa luta em uma questão política.

O que é o SB 1047?

O SB 1047 é um projeto de lei estadual da Califórnia que tornaria os grandes provedores de modelos de IA – como Meta, OpenAI, Anthropic e Mistral – responsáveis pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, redigido pelo senador estadual Scott Wiener, passou pelo Senado da Califórnia em maio e superou mais um grande obstáculo para se tornar lei nesta semana.

Por que devo me importar?

Bem, isso poderia ser a primeira regulação real de IA nos EUA com qualquer impacto significativo, e está acontecendo na Califórnia, onde estão todas as principais empresas de IA.

Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e sensatos para os desenvolvedores dos maiores e mais poderosos sistemas de IA”. Nem todos veem dessa forma, no entanto. Muitos no Vale do Silício estão soando o alarme de que essa lei acabará com a era da IA antes mesmo de começar.

O que o SB 1047 realmente faz?

O SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, especificamente citando seu papel na criação de “eventos com vítimas em massa”. Por mais inacreditável que isso possa parecer, isso é significativo porque o Vale do Silício historicamente evitou a responsabilidade por seus danos. O projeto de lei dá poderes ao Procurador-Geral da Califórnia para tomar medidas legais contra essas empresas se um de seus modelos de IA causar danos graves aos californianos.

O SB 1047 também inclui uma disposição de “desligamento” que efetivamente exige que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência.

O projeto de lei também cria a “Divisão de Modelos de Vanguarda” dentro da Agência de Operações do Governo da Califórnia. Esse grupo forneceria “orientação” aos provedores de modelos de IA de vanguarda sobre os padrões de segurança com os quais cada empresa teria que cumprir. Se as empresas não seguirem as recomendações da Divisão, poderiam ser processadas e enfrentar penalidades civis.

Quem apoia este projeto de lei?

Além do senador Wiener, dois pesquisadores proeminentes de IA às vezes chamados de “Padrinhos da IA”, Geoffrey Hinton e Yoshua Bengio, colocaram seus nomes neste projeto de lei. Esses dois têm sido muito proeminentes em emitir chamadas de advertência sobre os perigos da IA.

De maneira mais ampla, este projeto de lei se alinha com a perspectiva de desaceleração, que acredita que a IA tem uma probabilidade relativamente alta de acabar com a humanidade e deve ser regulamentada como tal. A maioria dessas pessoas são pesquisadores de IA e não estão tentando ativamente comercializar um produto de IA, já que, sabe, eles pensam que isso poderia acabar com a humanidade.

O projeto de lei é patrocinado pelo Center for AI Safety, liderado por Dan Hendrycks. Seu grupo publicou uma carta aberta em maio de 2023 dizendo que o risco da IA para a extinção humana deve ser levado tão a sério quanto as guerras nucleares ou pandemias. Foi assinado por Sam Altman, Bill Gates, Grimes e muitas pessoas influentes da tecnologia. Eles são um grupo influente e um ator-chave na promoção deste projeto de lei.

Em março de 2023, os que desaceleram pediram por uma “pausa” em todo o desenvolvimento de IA para implementar infraestrutura de segurança. Embora pareça extremo, há muitas pessoas inteligentes na comunidade de IA que realmente acreditam que a IA poderia acabar com a humanidade. A ideia deles é que se houver alguma probabilidade de a IA acabar com a humanidade, devemos regulamentá-la rigorosamente, apenas por precaução.

Isso faz sentido. Quem é contra o SB 1047?

Se você está do lado X, parece que todo mundo no Vale do Silício é contra o SB 1047. Capitalistas de risco, fundadores de startups, pesquisadores de IA e líderes da comunidade de IA de código aberto odeiam esse projeto de lei. Eu geralmente classificaria essas pessoas como aceleradores, ou pelo menos, é a posição delas sobre essa questão. Muitos deles estão no ramo da IA, mas alguns são pesquisadores também.

O sentimento geral é que o SB 1047 poderia forçar os provedores de modelos de IA, como Meta e Mistral, a reduzir ou até mesmo interromper completamente seus esforços de código aberto. Este projeto de lei os torna responsáveis pelos atores mal-intencionados que usam seus modelos de IA, e essas empresas podem não assumir essa responsabilidade devido às dificuldades de impor restrições à IA generativa e à natureza aberta dos produtos.

“Irá matar, esmagar e desacelerar completamente o ecossistema de startups de código aberto”, disse Anjney Midha, sócio-gerente da A16Z e diretor do conselho da Mistral, em entrevista ao Gizmodo. “Este projeto de lei é equivalente a tentar frear o progresso da imprensa, em vez de focar onde deveria estar, que são os usos da imprensa.”

“O código aberto é nossa melhor esperança de nos mantermos à frente, reunindo testes transparentes de segurança para modelos emergentes, em vez de permitir que algumas empresas poderosas controlem a IA em segredo”, disse Ion Stoica, professor de Ciência da Computação da Universidade de Berkeley e presidente executivo do Databricks, em uma entrevista.

Midha e Stoica não são os únicos que veem a regulação da IA como existencial para a indústria. A IA de código aberto impulsionou a cena de startups mais próspera do Vale do Silício em anos. Os oponentes do SB 1047 afirmam que o projeto de lei beneficiará os incumbentes fechados do Big Tech em vez desse ecossistema aberto e próspero.

“Eu realmente vejo isso como uma forma de estrangular o desenvolvimento de IA de código aberto, como parte de uma estratégia mais ampla para desacelerar a IA”, disse Jeremy Nixon, criador da AGI House, que serve como um centro para hackathons de IA de código aberto do Vale do Silício. “O projeto de lei vem de uma comunidade muito interessada em pausar a IA em geral.”

Isso parece muito técnico. Os legisladores podem acertar tudo isso?

Sim, é técnico, e isso gerou alguns problemas. O SB 1047 se aplica apenas a modelos de vanguarda “grandes”, mas o que significa grande? O projeto de lei define modelos de IA treinados em 10^26 FLOPS e custando mais de $100 milhões para treinar, uma quantidade específica e muito grande de poder de computação pelos padrões de hoje. O problema é que a IA está crescendo muito rápido, e os modelos de ponta de 2023 parecem pequenos em comparação com os padrões de 2024. Fixar uma posição não funciona bem para um campo que está se movendo tão rapidamente.

Também não está claro se é sequer possível evitar completamente que os sistemas de IA se comportem mal. A verdade é que não sabemos muito sobre como funcionam os LLMs, e os principais modelos de IA de hoje da OpenAI, Anthropic e Google são “jailbroken” o tempo todo. Por isso, alguns pesquisadores estão dizendo que os reguladores deveriam se concentrar nos atores mal-intencionados, e não nos provedores de modelo.