O Futuro da IA Está em Equilíbrio com a Lei da Califórnia

Um projeto de lei da Califórnia que tenta regular grandes modelos de IA de fronteira está criando um impasse dramático sobre o futuro da IA. Por anos, a IA tem sido dividida em “accel” e “decel”. Os accels querem que a IA progrida rapidamente – avance rápido e quebre coisas – enquanto os decels querem que o desenvolvimento da IA desacelere em prol da humanidade. A batalha entrou em destaque nacional quando o conselho da OpenAI afastou brevemente Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei californiano está tornando essa luta política.

O que é o SB 1047?
O SB 1047 é um projeto de lei estadual da Califórnia que tornaria os provedores de grandes modelos de IA – como Meta, OpenAI, Anthropic e Mistral – responsáveis pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, de autoria do senador estadual Scott Wiener, passou pelo Senado da Califórnia em maio e superou outro grande obstáculo para se tornar lei esta semana.

Por que devo me importar?
Bem, isso poderia se tornar a primeira regulamentação real de IA nos EUA com qualquer efeito prático, e está acontecendo na Califórnia, onde estão todas as principais empresas de IA.

Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e com senso comum para desenvolvedores dos maiores e mais poderosos sistemas de IA”. No entanto, nem todos veem dessa forma. Muitos no Vale do Silício estão soando o alarme de que essa lei matará a era da IA antes mesmo de começar.

O que o SB 1047 realmente faz?
O SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, citando especificamente seu papel na criação de “eventos de grande perigo para a população”. Por mais absurdo que pareça, isso é significativo porque o Vale do Silício historicamente evitou a responsabilidade por seus danos. O projeto de lei dá poderes ao Procurador Geral da Califórnia para tomar medidas legais contra essas empresas se um dos seus modelos de IA causar danos graves aos californianos.

O SB 1047 também inclui uma disposição de “desligamento”, que efetivamente exige que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência.

O projeto de lei também cria a “Divisão de Modelos de Fronteira” dentro da Agência de Operações do Governo da Califórnia. Esse grupo forneceria orientações aos provedores de modelos de IA de fronteira sobre os padrões de segurança com os quais cada empresa teria que cumprir. Se as empresas não considerarem as recomendações da Divisão, poderiam ser processadas e enfrentar penalidades civis.