O Futuro da IA Pendura na Balança com a Lei da Califórnia

Um projeto de lei da Califórnia que tenta regular grandes modelos de IA de fronteira está criando um impasse dramático sobre o futuro da IA. Por anos, a IA tem sido dividida em “accel” e “decel”. Os accels querem que a IA progrida rapidamente – avance rápido e quebre coisas – enquanto os decels querem que o desenvolvimento da IA diminua em prol da humanidade. A batalha entrou em destaque nacional quando o conselho do OpenAI afastou brevemente Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei da Califórnia está tornando essa luta política.

O que é o SB 1047?
SB 1047 é um projeto de lei estadual da Califórnia que responsabilizaria grandes provedores de modelos de IA – como Meta, OpenAI, Anthropic e Mistral – pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, de autoria do senador estadual Scott Wiener, passou pelo Senado da Califórnia em maio e superou outro grande obstáculo para se tornar lei nesta semana.

Por que devo me importar?
Bem, isso poderia se tornar a primeira regulamentação real de IA nos Estados Unidos com qualquer força, e está acontecendo na Califórnia, onde estão todas as principais empresas de IA.

Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e sensatos para os desenvolvedores dos maiores e mais poderosos sistemas de IA.” No entanto, nem todos veem assim. Muitos no Vale do Silício estão levantando sinais de alerta de que essa lei matará a era da IA antes mesmo de começar.

O que SB 1047 realmente faz?
SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, especificamente destacando seu papel na criação de “eventos com múltiplas vítimas”. Por mais improvável que pareça, isso é importante porque o Vale do Silício historicamente evitou a maioria das responsabilidades por seus danos. O projeto de lei dá poder ao Procurador Geral da Califórnia para tomar medidas legais contra essas empresas se um de seus modelos de IA causar danos graves aos californianos.

SB 1047 também inclui uma disposição de “desligamento” que efetivamente exige que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência.

O projeto de lei também cria a “Divisão do Modelo de Fronteira” dentro da Agência de Operações do Governo da Califórnia. Esse grupo “forneceria orientação” a esses provedores de modelos de IA de fronteira sobre os padrões de segurança com os quais cada empresa teria que cumprir. Se as empresas não considerarem as recomendações da Divisão, poderiam ser processadas e enfrentar penalidades civis.