Assistência Técnica Especializada Em Eletrônicos

Os requisitos de informação são essenciais para alertar o governo sobre potenciais capacidades perigosas em modelos de IA cada vez mais poderosos, diz um funcionário do governo dos EUA que trabalha em questões de IA. O funcionário, que pediu anonimato para falar livremente, destaca a admissão da OpenAI sobre a recusa inconsistente de seu modelo mais recente em sintetizar agentes nervosos.

O funcionário diz que o requisito de informação não é excessivamente oneroso. Argumentam que, ao contrário das regulamentações de IA na União Europeia e na China, a ordem executiva de Biden reflete “uma abordagem ampla e leve que continua a promover a inovação”.

Nick Reese, que serviu como primeiro diretor de tecnologia emergente do Departamento de Segurança Interna de 2019 a 2023, rejeita as afirmações conservadoras de que o requisito de informação colocará em risco a propriedade intelectual das empresas. E ele diz que poderia beneficiar as startups incentivando-as a desenvolver modelos de IA “mais eficientes computacionalmente”, que sejam menos dependentes de dados e que estejam abaixo do limite de informação.

O poder da IA torna a supervisão governamental imperativa, diz Ami Fields-Meyer, que ajudou a redigir a ordem executiva de Biden como funcionária de tecnologia da Casa Branca.

“Estamos falando de empresas que afirmam estar construindo os sistemas mais poderosos da história do mundo”, diz Fields-Meyer. “A primeira obrigação do governo é proteger as pessoas. ‘Confie em nós, nós resolvemos isso’ não é um argumento especialmente convincente.”

Especialistas elogiam a orientação de segurança do NIST como um recurso vital para integrar proteções em novas tecnologias. Eles observam que modelos de IA com falhas podem causar sérios danos sociais, incluindo discriminação em aluguéis e empréstimos e perda indevida de benefícios governamentais.

A própria ordem de IA do primeiro mandato de Trump exigiu que os sistemas federais de IA respeitassem os direitos civis, algo que exigirá pesquisas sobre danos sociais.

A indústria de IA recebeu amplamente a agenda de segurança de Biden. “O que estamos ouvindo é que é amplamente útil ter essas coisas explicadas”, diz o funcionário dos EUA. Para novas empresas com equipes pequenas, “ela expande a capacidade de suas pessoas de abordar essas preocupações.”

Reverter a ordem executiva de Biden enviar uma sinalização alarmante de que “o governo dos EUA vai adotar uma abordagem ‘abstencionista’ em relação à segurança da IA”, diz Michael Daniel, ex-consultor presidencial em cibersegurança, que agora lidera a Aliança de Ameaças Cibernéticas, uma organização sem fins lucrativos de compartilhamento de informações.

Quanto à competição com a China, os defensores da ordem executiva dizem que as regras de segurança na verdade ajudarão a América a prevalecer, garantindo que os modelos de IA dos EUA funcionem melhor do que seus rivais chineses e estejam protegidos do espionagem econômica de Pequim.

Dois Caminhos Muito Diferentes

Se Trump vencer a Casa Branca no próximo mês, espere uma mudança radical na abordagem do governo em relação à segurança da IA.

Os republicanos querem prevenir os danos da IA aplicando “leis existentes de responsabilidade civil e estatutárias”, em vez de promulgar novas restrições amplas sobre a tecnologia, segundo Helberg, e favorecem “um foco muito maior em maximizar as oportunidades oferecidas pela IA, em vez de se concentrar excessivamente na mitigação de riscos”. Isso provavelmente significaria o fim do requisito de informação e possivelmente de algumas orientações do NIST.

O requisito de informação também poderia enfrentar desafios legais agora que a Suprema Corte enfraqueceu a deferência que os tribunais costumavam conceder às agências na avaliação de suas regulamentações.

E a resistência do GOP poderia até mesmo colocar em risco as parcerias voluntárias de testes de IA do NIST com empresas líderes. “O que acontece com esses compromissos em um novo governo?” pergunta o funcionário dos EUA.

Essa polarização em torno da IA tem frustrado os tecnólogos que se preocupam que Trump minará a busca por modelos mais seguros.

“Junta às promessas da IA estão os perigos”, diz Nicol Turner Lee, diretora do Centro de Inovação em Tecnologia da Brookings Institution, “e é vital que o próximo presidente continue a garantir a segurança desses sistemas.”