Tribunal Proíbe Uso de Provas de Vídeo ‘Aprimoradas por IA’ Porque Assim não Funciona a IA

Um juiz no estado de Washington bloqueou a evidência de vídeo que foi “aprimorada” por inteligência artificial de ser submetida a um julgamento de triplo homicídio. E isso é algo positivo, dado o fato de que muitas pessoas parecem acreditar que aplicar um filtro de IA pode lhes dar acesso a dados visuais secretos.

O Juiz Leroy McCullough, do Condado de King, Washington, escreveu em uma nova decisão que a tecnologia de IA usava “métodos opacos para representar o que o modelo de IA ‘pensa’ que deve ser mostrado”, de acordo com um novo relatório do NBC News de terça-feira. E isso traz um pouco de clareza sobre o que está acontecendo com essas ferramentas de IA em um mundo de hype de IA.

“Este Tribunal entende que a admissão dessa evidência aprimorada por IA levaria a uma confusão das questões e a um emaranhamento do testemunho das testemunhas oculares, e poderia levar a um julgamento demorado sobre o processo não revisável por pares usado pelo modelo de IA”, escreveu McCullough.

O caso envolve Joshua Puloka, um acusado de 46 anos de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle em 2021. Os advogados de Puloka queriam introduzir um vídeo de celular registrado por um espectador que foi aprimorado por IA, embora não esteja claro o que eles acreditam que poderia ser extraído do vídeo alterado.

Os advogados de Puloka supostamente contrataram um “especialista” em produção de vídeo criativo que nunca havia trabalhado em um caso criminal antes para “aprimorar” o vídeo. A ferramenta de IA usada por este especialista não nomeado foi desenvolvida pela Topaz Labs, com sede no Texas, que está disponível para qualquer pessoa com conexão com a internet.

A introdução de ferramentas de imagem alimentadas por IA nos últimos anos levou a mal-entendidos generalizados sobre o que é possível com essa tecnologia. Muitas pessoas acreditam que rodar uma foto ou vídeo por meio de aumentadores de IA pode lhes dar uma ideia melhor das informações visuais que já estão lá. Mas, na realidade, o software de IA não está fornecendo uma imagem mais clara das informações presentes na imagem – o software está simplesmente adicionando informações que não estavam lá originalmente.

Por exemplo, houve uma teoria da conspiração generalizada de que Chris Rock estava usando algum tipo de almofada no rosto quando foi surrado por Will Smith no Oscar de 2022. A teoria começou porque as pessoas começaram a rodar capturas de tela da agressão por meio de aumentadores de imagem, acreditando que poderiam ter uma visão melhor do que estava acontecendo.

Mas isso não é o que acontece ao rodar imagens por meio do aprimoramento de IA. O programa de computador está apenas adicionando mais informações na tentativa de tornar a imagem mais nítida, o que muitas vezes pode distorcer o que realmente está lá. Contando com fotos e vídeos de alta resolução do incidente, é possível concluir que Rock não tinha uma almofada no rosto. Mas isso não impediu as pessoas de acreditarem que conseguiam ver algo oculto à vista, aumentando a imagem para “8K”.

O surgimento de produtos rotulados como IA criou muita confusão entre a pessoa comum sobre o que essas ferramentas realmente podem realizar. Grandes modelos de linguagem, como o ChatGPT, convenceram pessoas inteligentes de que esses chatbots são capazes de raciocínio complexo, quando na verdade isso não é o que está acontecendo nos bastidores. Os LLMs essencialmente apenas preveem a próxima palavra que deveriam produzir para soar como um humano plausível. Mas, porque eles fazem um bom trabalho em parecer humanos, muitos usuários acreditam que estão fazendo algo mais sofisticado do que um truque de mágica.

E parece ser a realidade com a qual vamos conviver até que bilhões de dólares sejam injetados em empresas de IA. Muitas pessoas, que deveriam saber melhor, acreditam que há algo profundo acontecendo por trás das cortinas e são rápidas em culpar o “viés” e os limites sendo muito rígidos. Mas, ao cavar um pouco mais fundo, você descobre que essas chamadas “alucinações” não são uma força misteriosa agida por pessoas que estão muito acordadas, ou o que seja. São simplesmente um produto dessa tecnologia de IA não sendo muito boa em seu trabalho.

Felizmente, um juiz em Washington reconheceu que essa tecnologia não é capaz de fornecer uma imagem melhor. Embora não duvidemos que haja muitos juízes nos EUA que tenham se deixado levar pelo hype da IA e não entendam as implicações. É apenas questão de tempo antes de termos um vídeo aprimorado por IA usado em tribunal que não mostra nada além de informações visuais adicionadas muito tempo depois dos fatos.