O Futuro da IA Depende da Lei da Califórnia

Um projeto de lei da Califórnia que tenta regulamentar grandes modelos de IA de fronteira está criando um impasse dramático sobre o futuro da IA. Por anos, a IA tem sido dividida em “acelerar” e “desacelerar”. Os aceleradores querem que a IA progrida rapidamente – se mova rápido e quebre coisas – enquanto os desaceleradores querem que o desenvolvimento da IA desacelere em prol da humanidade. A batalha se tornou pública quando o conselho do OpenAI afastou brevemente Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei da Califórnia está tornando essa luta política.

O que é o SB 1047? SB 1047 é um projeto de lei estadual da Califórnia que responsabilizaria os grandes provedores de modelos de IA – como Meta, OpenAI, Anthropic e Mistral – pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, de autoria do senador estadual Scott Wiener, passou pelo Senado da Califórnia em maio e superou mais um grande obstáculo para se tornar lei esta semana.

Por que devo me importar? Bem, isso poderia se tornar a primeira regulamentação real de IA nos EUA com algum peso, e está acontecendo na Califórnia, onde estão todas as principais empresas de IA.

Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e sensatos para os desenvolvedores dos maiores e mais poderosos sistemas de IA”. No entanto, nem todos veem dessa forma. Muitos em Vale do Silício estão levantando sinais de alarme de que essa lei matará a era da IA antes mesmo de começar.

O que o SB 1047 realmente faz? O SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, especificamente mencionando seu papel na criação de “eventos com múltiplas vítimas”. Por mais absurdo que possa parecer, isso é significativo, porque o Vale do Silício historicamente tem evitado a maioria das responsabilidades por seus danos. O projeto de lei capacita o Procurador Geral da Califórnia a tomar medidas legais contra essas empresas se um de seus modelos de IA causar danos graves aos californianos.

O SB 1047 também inclui uma disposição de “desligamento” que efetivamente requer que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência.

O projeto de lei também cria a “Divisão do Modelo de Fronteira” dentro da Agência de Operações do Governo da Califórnia. Esse grupo forneceria “orientação” a esses provedores de modelos de IA de fronteira sobre os padrões de segurança com os quais cada empresa teria que cumprir. Se as empresas não considerarem as recomendações da Divisão, poderiam ser processadas e enfrentar penalidades civis.