Tribunal Proíbe Uso de Prova de Vídeo ‘Aprimorada por IA’ Porque Assim Não Funciona a IA

Um juiz no estado de Washington bloqueou a evidência em vídeo que foi “melhorada por IA” de ser submetida a um julgamento por triplo assassinato. E isso é algo bom, considerando que muitas pessoas parecem acreditar que aplicar um filtro de IA pode lhes dar acesso a dados visuais secretos.

O juiz Leroy McCullough, no Condado de King, Washington, escreveu em uma nova decisão que a tecnologia de IA utilizada, “métodos opacos para representar o que o modelo de IA ‘pensa’ que deveria ser mostrado”, de acordo com um novo relatório da NBC News terça-feira. E isso traz um pouco de clareza sobre o que está acontecendo com essas ferramentas de IA em um mundo de hype de IA.

“Este Tribunal considera que a admissão desta evidência aprimorada por IA levaria a uma confusão das questões e uma mistura do testemunho de testemunhas oculares, e poderia levar a um julgamento demorado sobre o processo não sujeito a revisão por pares usado pelo modelo de IA”, escreveu McCullough.

O caso envolve Joshua Puloka, um homem de 46 anos acusado de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle. Advogados de Puloka queriam apresentar um vídeo de celular capturado por um espectador que foi aprimorado por IA, embora não esteja claro o que eles acreditam que poderia ser deduzido das imagens alteradas.

Os advogados de Puloka teriam utilizado um “especialista” em produção de vídeo criativo que nunca havia trabalhado em um caso criminal antes para “aperfeiçoar” o vídeo. A ferramenta de IA usada por esse especialista não nomeado foi desenvolvida pela Topaz Labs, com sede no Texas, e está disponível para qualquer pessoa com conexão com a internet.

A introdução de ferramentas de imagem alimentadas por IA nos últimos anos levou a mal-entendidos generalizados sobre o que é possível com essa tecnologia. Muitas pessoas acreditam que passar uma foto ou vídeo por aprimoradores de IA pode lhes dar uma ideia melhor das informações visuais já presentes. Mas, na realidade, o software de IA não está fornecendo uma imagem mais clara das informações presentes na imagem – o software está simplesmente adicionando informações que não estavam lá inicialmente.

Por exemplo, houve uma teoria da conspiração generalizada de que Chris Rock estava usando algum tipo de protetor facial quando foi agredido por Will Smith no Oscar de 2022. A teoria começou porque as pessoas começaram a passar capturas de tela do tapa por aprimoradores de imagem, acreditando que poderiam ter uma ideia melhor do que estava acontecendo.

Mas isso não é o que acontece quando você passa imagens por aprimoramento de IA. O programa de computador está apenas adicionando mais informações na tentativa de tornar a imagem mais nítida, o que muitas vezes pode distorcer o que realmente está presente. Usando o controle deslizante abaixo, você pode ver a imagem pixelada que viralizou antes de as pessoas começarem a alimentá-la por programas de IA e “descobrir” coisas que simplesmente não estavam presentes na transmissão original.

Inúmeras fotos e vídeos em alta resolução do incidente mostram conclusivamente que Rock não tinha um protetor facial. Mas isso não impediu as pessoas de acreditarem que podiam ver algo oculto à vista, aumentando a imagem para “8K”.

O surgimento de produtos rotulados como IA criou muita confusão entre a pessoa comum sobre o que essas ferramentas realmente podem realizar. Grandes modelos de linguagem como ChatGPT convenceram pessoas razoavelmente inteligentes de que esses chatbots são capazes de um raciocínio complexo, quando na verdade não é isso que está acontecendo por trás das cortinas. Os LLMs essencialmente estão apenas prevendo a próxima palavra que devem emitir para parecerem como um ser humano plausível. Mas porque eles se saem muito bem soando como humanos, muitos usuários acreditam que estão fazendo algo mais sofisticado do que um truque de mágica.

E parece que essa é a realidade com a qual vamos conviver enquanto bilhões de dólares estão sendo investidos em empresas de IA. Muitas pessoas que deveriam saber melhor acreditam que há algo profundo acontecendo atrás da cortina e são rápidas em culpar “viés” e barreiras sendo muito rígidas. Mas quando você aprofunda um pouco mais, descobre que essas chamadas “alucinações” não são uma força misteriosa realizada por pessoas que estão muito acordadas, ou algo do tipo. Elas são simplesmente um produto dessa tecnologia de IA não ser muito boa em seu trabalho.

Felizmente, um juiz em Washington reconheceu que essa tecnologia não é capaz de fornecer uma imagem melhor. Embora não duvidemos que haja muitos juízes nos EUA que tenham comprado a hype de IA e não compreendem as implicações. É apenas uma questão de tempo antes de termos um vídeo aprimorado por IA usado em tribunal que não mostre nada além de informações visuais adicionadas bem depois do fato.