Tribunal proíbe uso de Provas de Vídeo ‘Aprimoradas por IA’ porque é assim que a IA funciona.

Um juiz no estado de Washington bloqueou a introdução de evidências em vídeo que foram “melhoradas” por inteligência artificial em um julgamento de triplo assassinato. E isso é uma coisa boa, dado o fato de que muitas pessoas parecem acreditar que aplicar um filtro de IA pode lhes dar acesso a dados visuais secretos.

O Juiz Leroy McCullough no Condado de King, em Washington, afirmou em uma nova decisão que a tecnologia de IA utilizada, “métodos opacos para representar o que o modelo de IA ‘pensa’ que deveria ser mostrado,” de acordo com um novo relatório do NBC News. E isso traz um pouco de clareza sobre o que está acontecendo com essas ferramentas de IA em um mundo de hype sobre IA.

“Este Tribunal conclui que a admissão desta evidência aprimorada por IA levaria a uma confusão das questões e a um embaralhamento do testemunho ocular, e poderia levar a um julgamento demorado sobre o processo não revisível por pares usado pelo modelo de IA,” escreveu McCullough.

O caso envolve Joshua Puloka, um homem de 46 anos acusado de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle. Advogados de Puloka queriam introduzir um vídeo de celular capturado por um espectador que foi aprimorado por IA, embora não esteja claro o que eles acreditam que poderia ser inferido das imagens alteradas.

Os advogados de Puloka supostamente utilizaram um “especialista” em produção de vídeo criativo que nunca havia trabalhado em um caso criminal antes para “melhorar” o vídeo. A ferramenta de IA usada por esse especialista não identificado foi desenvolvida pela Topaz Labs, sediada no Texas, que está disponível para qualquer pessoa com conexão com a internet.

A introdução de ferramentas de imagem alimentadas por IA nos últimos anos tem levado a mal-entendidos generalizados sobre o que é possível com essa tecnologia. Muitas pessoas acreditam que ao passar uma foto ou vídeo por amplificadores de IA, podem ter uma ideia melhor das informações visuais que já estão presentes. Mas, na realidade, o software de IA não está fornecendo uma imagem mais clara das informações presentes na imagem – o software está simplesmente adicionando informações que não estavam lá inicialmente.

Por exemplo, houve uma teoria da conspiração generalizada de que Chris Rock estava usando algum tipo de proteção no rosto quando foi esbofeteado por Will Smith no Oscar de 2022. A teoria começou porque as pessoas começaram a passar capturas de tela do tapa por amplificadores de imagem, acreditando que poderiam ter uma ideia melhor do que estava acontecendo.

Mas isso não é o que acontece quando você passa imagens por aprimoramento de IA. O programa de computador está apenas adicionando mais informações na tentativa de tornar a imagem mais nítida, o que muitas vezes pode distorcer o que realmente está lá. O aumento do número de produtos rotulados como IA tem criado muita confusão entre a pessoa comum sobre o que essas ferramentas realmente podem realizar. Grandes modelos de linguagem como ChatGPT convenceram pessoas inteligentes de que esses chatbots são capazes de raciocínio complexo quando na verdade não é isso que está acontecendo sob o capô. Os LLMs essencialmente prevêem a próxima palavra que devem produzir para parecerem um humano plausível. Mas, porque fazem um bom trabalho soando como humanos, muitos usuários acreditam que estão fazendo algo mais sofisticado do que um truque de mágica.

E isso parece ser a realidade com a qual vamos conviver enquanto bilhões de dólares são investidos em empresas de IA. Muitas pessoas que deveriam saber melhor acreditam que há algo profundo acontecendo nos bastidores e estão prontas para culpar o “viés” e as restrições sendo muito rígidas. Mas, quando você aprofunda um pouco mais, descobre que essas supostas alucinações não são uma força misteriosa promovida por pessoas que são politicamente conscientes demais, ou o que seja. Elas são simplesmente um produto deste tecnologia de IA não sendo muito eficiente em seu trabalho.

Felizmente, um juiz em Washington reconheceu que esta tecnologia não é capaz de fornecer uma imagem melhor. Embora não duvidemos que existam muitos juízes nos Estados Unidos que se deixaram levar pelo hype da IA e não entendem as implicações. É apenas uma questão de tempo até que tenhamos um vídeo aprimorado por IA usado em tribunal que não mostre nada além de informações visuais adicionadas bem depois do fato.