Tribunal Proíbe Uso de Provas de Vídeo ‘Aprimoradas’ por IA Porque Assim a IA Não Funciona

Um juiz no estado de Washington bloqueou a submissão de evidências em vídeo que foram “melhoradas” por IA em um julgamento de triplo assassinato. E isso é algo bom, dado o fato de que muitas pessoas parecem pensar que aplicar um filtro de IA pode lhes dar acesso a dados visuais secretos.

O juiz Leroy McCullough no Condado de King, Washington, escreveu em uma nova decisão que a tecnologia de IA usava “métodos opacos para representar o que o modelo de IA ‘pensa’ que deveria ser mostrado”, de acordo com um novo relatório da NBC News terça-feira. E isso é um pouco de clareza refrescante sobre o que está acontecendo com essas ferramentas de IA em um mundo de hype de IA.

“Este Tribunal considera que a admissão desta prova melhorada pela IA levaria a uma confusão das questões e a uma confusão do testemunho ocular, e poderia levar a um julgamento demorado sobre o processo não sujeito a revisão por pares usado pelo modelo de IA”, escreveu McCullough.

O caso envolve Joshua Puloka, um homem de 46 anos acusado de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle. Advogados de Puloka queriam introduzir um vídeo gravado por um espectador que foi aprimorado por IA, embora não esteja claro o que eles acreditam que poderia ser obtido das imagens alteradas.

Segundo relatos, os advogados de Puloka usaram um “especialista” em produção de vídeo criativo que nunca havia trabalhado em um caso criminal antes para “aprimorar” o vídeo. A ferramenta de IA usada por este especialista não identificado foi desenvolvida pela Topaz Labs, sediada no Texas, que está disponível para qualquer pessoa com conexão à internet.

A introdução de ferramentas de imagem alimentadas por IA nos últimos anos levou a muitos mal-entendidos sobre o que é possível com essa tecnologia. Muitas pessoas acreditam que passar uma foto ou vídeo por aprimoradores de IA pode lhes dar uma ideia melhor das informações visuais já presentes. Mas, na realidade, o software de IA não está fornecendo uma imagem mais clara das informações presentes na imagem – o software está simplesmente adicionando informações que não estavam lá.

Por exemplo, houve uma teoria da conspiração generalizada de que Chris Rock estava usando algum tipo de almofada facial quando foi esbofeteado por Will Smith no Oscar de 2022. A teoria surgiu porque as pessoas começaram a passar capturas de tela da bofetada por aprimoradores de imagem, acreditando que poderiam ver o que estava acontecendo.

Mas isso não é o que acontece quando você passa imagens por aprimoramento de IA. O programa de computador está apenas adicionando mais informações na tentativa de tornar a imagem mais nítida, o que muitas vezes pode distorcer o que realmente está lá. Usando o controle deslizante abaixo, você pode ver a imagem pixelada que viralizou antes das pessoas começarem a alimentá-la por meio de programas de IA e “descobrir” coisas que simplesmente não estavam presentes na transmissão original.

Inúmeras fotos e vídeos em alta resolução do incidente mostram conclusivamente que Rock não tinha uma almofada em seu rosto. Mas isso não impediu as pessoas de acreditarem que poderiam ver algo escondido à vista “escalando” a imagem para “8K”.

O surgimento de produtos rotulados como IA criou muita confusão entre a pessoa comum sobre o que essas ferramentas realmente podem realizar. Grandes modelos de linguagem como ChatGPT convenceram pessoas inteligentes do contrário de que esses chatbots são capazes de raciocínio complexo quando na verdade isso não está acontecendo por baixo dos panos. Os LLMs essencialmente estão prevendo a próxima palavra que devem emitir para parecerem plausivelmente humanas. Mas porque eles se saem muito bem soando como humanos, muitos usuários acreditam que estão fazendo algo mais sofisticado do que um truque de mágica.

E isso parece ser a realidade com a qual vamos conviver enquanto bilhões de dólares estão sendo investidos em empresas de IA. Muitas pessoas que deveriam saber melhor acreditam que há algo profundo acontecendo por trás das cortinas e rapidamente culpam “viés” e guardas sendo muito rigorosos. Mas quando se aprofunda um pouco mais, descobre-se que essas “alucinações” não são alguma força misteriosa promovida por pessoas muito despertas, ou o que seja. Elas são simplesmente um produto dessa tecnologia de IA que não é muito boa em seu trabalho.

Felizmente, um juiz em Washington reconheceu que essa tecnologia não é capaz de fornecer uma imagem melhor. No entanto, não duvidamos que haja muitos juízes nos EUA que compraram o hype de IA e não entendem as implicações. É apenas questão de tempo antes de termos um vídeo aprimorado por IA usado em tribunal que não mostra nada além de informações visuais adicionadas muito tempo depois do fato.