O Futuro Da AI Pende Na Balança Com Lei Da Califórnia

Um projeto de lei na Califórnia que tenta regular grandes modelos de inteligência artificial está criando um impasse dramático sobre o futuro da IA. Por anos, a IA tem sido dividida em “accel” e “decel”. Os aceleradores querem que a IA progrida rapidamente – avançar rápido e quebrar as coisas – enquanto os desaceleradores querem que o desenvolvimento da IA diminua em prol da humanidade. A batalha ganhou destaque nacional quando o conselho da OpenAI afastou brevemente Sam Altman, muitos dos quais desde então se separaram da startup em nome da segurança da IA. Agora, um projeto de lei na Califórnia está tornando essa luta política.

O que é o SB 1047?
O SB 1047 é um projeto de lei estadual da Califórnia que tornaria os grandes provedores de modelos de IA, como Meta, OpenAI, Anthropic e Mistral, responsáveis pelos perigos potencialmente catastróficos de seus sistemas de IA. O projeto de lei, elaborado pelo senador estadual Scott Wiener, foi aprovado no Senado da Califórnia em maio e superou mais um grande obstáculo para se tornar lei nesta semana.

Por que devo me importar?
Bem, poderia se tornar a primeira regulamentação real de IA nos EUA com alguma eficácia, e está acontecendo na Califórnia, onde todas as grandes empresas de IA estão. Wiener descreve o projeto de lei como estabelecendo “padrões de segurança claros, previsíveis e comuns para os desenvolvedores dos maiores e mais poderosos sistemas de IA”. No entanto, nem todos veem assim. Muitos no Vale do Silício estão levantando alarmes de que essa lei matará a era da IA antes mesmo de começar.

O que o SB 1047 realmente faz?
O SB 1047 torna os provedores de modelos de IA responsáveis por quaisquer “danos críticos”, destacando especificamente seu papel na criação de “eventos com grande número de vítimas”. Por mais inacreditável que isso possa parecer, é importante porque o Vale do Silício historicamente evitou a maioria das responsabilidades por seus danos. O projeto de lei dá poderes ao Procurador Geral da Califórnia para tomar medidas legais contra essas empresas se um de seus modelos de IA causar danos graves aos californianos.

Além disso, o SB 1047 inclui uma disposição de “desligamento” que efetivamente exige que as empresas de IA criem um interruptor de desligamento para um modelo de IA em caso de emergência. O projeto de lei também cria a “Divisão de Modelos de Fronteira” dentro da Agência de Operações Governamentais da Califórnia. Esse grupo forneceria “orientação” para esses provedores de modelos de IA de fronteira sobre os padrões de segurança que cada empresa teria que cumprir. Se as empresas não seguirem as recomendações da Divisão, poderiam ser processadas e enfrentar penalidades civis.

Quem apoia esse projeto de lei?
Além do senador Wiener, dois proeminentes pesquisadores de IA, muitas vezes chamados de “Pais da IA”, Geoffrey Hinton e Yoshua Bengio, colocaram seus nomes neste projeto de lei. Esses dois têm sido muito proeminentes em emitir alertas sobre os perigos da IA. Mais amplamente, este projeto de lei está alinhado com a perspectiva de desaceleração, que acredita que a IA tem uma probabilidade relativamente alta de acabar com a humanidade e deve ser regulamentada como tal. A maioria dessas pessoas são pesquisadoras de IA e não estão tentando ativamente comercializar um produto de IA, pois, você sabe, elas acham que isso poderia acabar com a humanidade.