Tribunal Proíbe Uso de Prova de Vídeo ‘Melhorada por IA’ Porque Assim a IA Não Funciona

Um juiz no estado de Washington bloqueou evidências em vídeo que foram “melhoradas por IA” de serem apresentadas em um julgamento de triplo assassinato. E isso é algo positivo, considerando o fato de que muitas pessoas parecem acreditar que aplicar um filtro de IA pode lhes dar acesso a dados visuais secretos.

O juiz Leroy McCullough, no condado de King, Washington, escreveu em uma nova decisão que a tecnologia de IA usou “métodos opacos para representar o que o modelo de IA ‘pensa’ que deve ser mostrado”, de acordo com um novo relatório da NBC News na terça-feira. E isso traz um pouco de clareza sobre o que está acontecendo com essas ferramentas de IA em um mundo de hype de IA.

“Este Tribunal considera que a admissão dessa evidência aprimorada por IA levaria à confusão das questões e à mistificação do testemunho ocular, e poderia levar a um julgamento demorado sobre o processo não revisável pelos pares usado pelo modelo de IA”, escreveu McCullough.

O caso envolve Joshua Puloka, um homem de 46 anos acusado de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle. Advogados de Puloka queriam apresentar um vídeo de celular filmado por um espectador que foi aprimorado por IA, embora não esteja claro o que eles acreditam que poderia ser extraído das imagens alteradas.

Advogados de Puloka relataram ter usado um “especialista” em produção de vídeo criativo que nunca havia trabalhado em um caso criminal antes para “aprimorar” o vídeo. A ferramenta de IA que esse especialista não nomeado usou foi desenvolvida pela Topaz Labs, com sede no Texas, que está disponível para qualquer pessoa com conexão à internet.

A introdução de ferramentas de imagem alimentadas por IA nos últimos anos levou a muitos mal-entendidos sobre o que é possível com essa tecnologia. Muitas pessoas acreditam que executar uma foto ou vídeo por meio de aprimoradores de IA pode dar uma melhor ideia das informações visuais que já estão lá. Mas, na realidade, o software de IA não está fornecendo uma imagem mais clara das informações presentes na imagem – o software está simplesmente adicionando informações que não estavam lá inicialmente.

Por exemplo, houve uma teoria da conspiração generalizada de que Chris Rock estava usando algum tipo de protetor facial quando foi agredido por Will Smith no Oscar de 2022. A teoria começou porque as pessoas começaram a passar capturas de tela da agressão por aprimoradores de imagens, acreditando que poderiam ter uma visão melhor do que estava acontecendo.

Mas isso não é o que acontece ao usar o aprimoramento de IA nas imagens. O programa de computador está apenas adicionando mais informações na tentativa de tornar a imagem mais nítida, o que muitas vezes pode distorcer o que está realmente lá. Usando o controle deslizante abaixo, você pode ver a imagem pixelada que se tornou viral antes de ser alimentada por programas de IA e “descobrir” coisas que simplesmente não estavam lá na transmissão original.

Inúmeras fotos e vídeos em alta resolução do incidente mostram conclusivamente que Rock não tinha um protetor no rosto. Mas isso não impediu as pessoas de acreditar que conseguiam ver algo escondido à vista ao “aumentar” a imagem para “8K”.

O surgimento de produtos rotulados como IA criou muita confusão entre a pessoa comum sobre o que essas ferramentas realmente podem realizar. Grandes modelos de linguagem como o ChatGPT convenceram pessoas inteligentes de que esses chatbots são capazes de raciocínio complexo, quando na verdade não é isso que está acontecendo nas entranhas. Os LLMs essencialmente estão prevendo a próxima palavra que devem emitir para parecer como um humano plausível. Mas, porque eles se saem muito bem soando como humanos, muitos usuários acreditam que estão fazendo algo mais sofisticado do que um truque de mágica.

E parece ser essa a realidade com a qual vamos conviver enquanto bilhões de dólares continuam sendo despejados em empresas de IA. Muitas pessoas que deveriam saber melhor acreditam que há algo profundo acontecendo nos bastidores e são rápidas em culpar “viés” e guardiões sendo muito rígidos. Mas, ao cavar um pouco mais fundo, descobrimos que essas “alucinações” não são um poder misterioso exercido por pessoas muito conscientes, ou o que quer que seja. São simplesmente um produto dessa tecnologia de IA não ser muito boa no que faz.

Felizmente, um juiz em Washington reconheceu que essa tecnologia não é capaz de fornecer uma imagem melhor. Embora não duvidemos que haja muitos juízes nos Estados Unidos que tenham comprado a propaganda de IA e não entendem as implicações. É apenas uma questão de tempo até termos um vídeo aprimorado por IA usado em tribunal que não mostra nada além de informações visuais adicionadas bem depois dos fatos.