Tribunal Proíbe Uso de Provas de Vídeo ‘Aprimoradas por IA’ Porque Não É Assim que a IA Funciona

Um juiz no estado de Washington bloqueou evidências em vídeo que foram “aperfeiçoadas” por IA de serem apresentadas em um julgamento de triplo assassinato. E isso é algo positivo, dado o fato de que muitas pessoas parecem acreditar que a aplicação de um filtro de IA pode lhes dar acesso a dados visuais secretos.

O juiz Leroy McCullough, no Condado de King, Washington, escreveu em uma nova decisão que a tecnologia de IA utilizada, “usa métodos opacos para representar o que o modelo de IA ‘pensa’ que deveria ser mostrado”, de acordo com um novo relatório da NBC News na terça-feira. E isso traz um pouco de clareza sobre o que está acontecendo com essas ferramentas de IA em um mundo de exageros em torno da IA.

“Este Tribunal considera que a admissão desta evidência aprimorada por IA levaria à confusão das questões e ao embaralhamento do testemunho de testemunhas oculares, e poderia levar a um julgamento demorado dentro do julgamento sobre o processo não revisado por pares usado pelo modelo de IA”, escreveu McCullough.

O caso envolve Joshua Puloka, um homem de 46 anos acusado de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle. Advogados de Puloka queriam apresentar um vídeo de celular capturado por um espectador que foi aprimorado por IA, embora não esteja claro o que eles acreditam poder extrair das imagens alteradas.

Os advogados de Puloka relataram que usaram um “especialista” em produção de vídeo criativo que nunca havia trabalhado em um caso criminal antes para “aperfeiçoar” o vídeo. A ferramenta de IA usada por este especialista não identificado foi desenvolvida pela Topaz Labs, sediada no Texas, e está disponível para qualquer pessoa com conexão à internet.

A introdução de ferramentas de imagem alimentadas por IA nos últimos anos levou a mal-entendidos generalizados sobre o que é possível com essa tecnologia. Muitas pessoas acreditam que ao passar uma foto ou vídeo por aprimoradores de IA, elas podem obter uma ideia melhor das informações visuais que já estão ali. No entanto, na realidade, o software de IA não fornece uma imagem mais clara das informações presentes na imagem – o software apenas adiciona informações que não estavam lá originalmente.

Por exemplo, houve uma ampla teoria da conspiração de que Chris Rock estava usando algum tipo de almofada facial quando foi agredido por Will Smith no Oscar de 2022. Essa teoria começou porque as pessoas começaram a passar capturas de tela do tapa por aprimoradores de imagem, acreditando que poderiam ter uma visão melhor do que estava acontecendo.

Mas isso não é o que acontece quando se passa imagens por um aprimoramento de IA. O programa de computador simplesmente adiciona mais informações na tentativa de tornar a imagem mais nítida, o que muitas vezes pode distorcer o que realmente está ali. Usando o controle deslizante abaixo, você pode ver a imagem pixelada que viralizou antes de as pessoas começarem a alimentá-la por programas de IA e “descobrir” coisas que simplesmente não estavam presentes na transmissão original.

Inúmeras fotos e vídeos em alta resolução do incidente mostram de forma conclusiva que Rock não tinha uma almofada em seu rosto. Mas isso não impediu as pessoas de acreditarem que poderiam ver algo oculto à vista ao “aumentar” a imagem para “8K”.

O surgimento de produtos rotulados como IA criou muita confusão entre o cidadão comum sobre o que essas ferramentas realmente podem realizar. Grandes modelos de linguagem como ChatGPT convenceram pessoas inteligentes de que esses chatbots são capazes de raciocínio complexo quando na verdade isso não é o que está acontecendo nos bastidores. Os modelos de linguagem grandes basicamente preveem a próxima palavra que devem dizer para soar como um humano plausível. Mas porque eles soam bastante humanos, muitos usuários acreditam que eles estão fazendo algo mais sofisticado do que um truque de mágica.

E parece que essa é a realidade com a qual vamos conviver enquanto bilhões de dólares são despejados em empresas de IA. Muitas pessoas que deveriam saber mais acreditam que há algo profundo acontecendo nos bastidores e são rápidas em culpar “viés” e barreiras muito rígidas. Mas se você cavar um pouco mais fundo, descobrirá que essas chamadas “alucinações” não são algum force misterioso realizado por pessoas que estão muito “antenadas”, ou o que quer que seja. Elas são simplesmente um produto dessa tecnologia de IA não sendo muito boa em seu trabalho.

Felizmente, um juiz em Washington reconheceu que essa tecnologia não é capaz de fornecer uma imagem melhor. Embora não duvidemos que há muitos juízes nos EUA que compraram a histeria em torno da IA e não compreendem as implicações. É apenas uma questão de tempo antes de termos um vídeo aprimorado por IA usado em tribunal que não mostra nada além de informações visuais adicionadas bem depois do fato.