Tribunal proíbe uso de Provas em Vídeo ‘Aprimoradas por IA’ porque é Assim que a IA Funciona

Um juiz no estado de Washington bloqueou a evidência em vídeo que foi “melhorada por IA” de ser submetida em um julgamento por triplo assassinato. E isso é algo bom, dado o fato de que muitas pessoas parecem acreditar que aplicar um filtro de IA pode lhes dar acesso a dados visuais secretos.

O juiz Leroy McCullough no Condado de King, Washington escreveu em uma nova decisão que a tecnologia de IA usada, “métodos opacos para representar o que o modelo de IA ‘pensa’ que deve ser mostrado”, segundo um novo relatório da NBC News terça-feira. E isso é um vislumbre refrescante do que está acontecendo com essas ferramentas de IA em um mundo de hype de IA.

“Este Tribunal considera que a admissão desta evidência aprimorada por IA levaria a uma confusão dos problemas e a uma confusão do testemunho de testemunhas oculares, e poderia levar a um julgamento demorado dentro de um julgamento sobre o processo não revisável por pares utilizado pelo modelo de IA”, escreveu McCullough.

O caso envolve Joshua Puloka, um homem de 46 anos acusado de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle em 2021. Advogados de Puloka queriam introduzir um vídeo de celular capturado por um espectador que foi aprimorado por IA, embora não esteja claro o que eles acreditam que poderia ser obtido das imagens alteradas.

Os advogados de Puloka teriam utilizado um “especialista” em produção de vídeo criativo que nunca havia trabalhado em um caso criminal antes para “aperfeiçoar” o vídeo. A ferramenta de IA usada por este especialista não nomeado foi desenvolvida pela Topaz Labs, com sede no Texas, que está disponível para qualquer pessoa com uma conexão à internet.

A introdução de ferramentas de imagem alimentadas por IA nos últimos anos tem levado a mal-entendidos generalizados sobre o que é possível com essa tecnologia. Muitas pessoas acreditam que ao passar uma foto ou vídeo por IA, podem obter uma ideia melhor das informações visuais que já estão lá. Mas, na realidade, o software de IA não está fornecendo uma imagem mais clara das informações presentes na imagem – o software está simplesmente adicionando informações que não estavam lá originalmente.

Por exemplo, havia uma teoria da conspiração generalizada de que Chris Rock estava usando algum tipo de proteção facial quando foi agredido por Will Smith no Oscar de 2022. A teoria começou porque as pessoas começaram a passar capturas de tela do tapa por algoritmos de IA, acreditando que poderiam ter uma visão melhor do que estava acontecendo.

Mas isso não é o que acontece quando você passa imagens por aprimoramento de IA. O programa de computador está apenas adicionando mais informações na tentativa de tornar a imagem mais nítida, o que muitas vezes pode distorcer o que realmente está lá. Usando o controle deslizante abaixo, você pode ver a imagem pixelada que se tornou viral antes das pessoas começarem a alimentá-la através de programas de IA e “descobrir” coisas que simplesmente não estavam presentes na transmissão original.

Inúmeras fotos e vídeos de alta resolução do incidente mostram conclusivamente que Rock não estava com uma proteção facial. Mas isso não impediu as pessoas de acreditar que poderiam ver algo escondido à vista ao “aumentar” a imagem para “8K”.

O surgimento de produtos rotulados como IA criou muita confusão entre a pessoa comum sobre o que essas ferramentas realmente podem realizar. Modelos de linguagem grandes como ChatGPT convenceram pessoas inteligentes de que esses chatbots são capazes de raciocínio complexo, quando na verdade não é isso que está acontecendo por baixo dos panos. Os LLMs basicamente estão prevendo a próxima palavra que deveriam lançar para soar como um humano plausível. Mas, porque eles conseguem soar bastante como humanos, muitos usuários acham que estão fazendo algo mais sofisticado do que um truque de mágica.

E parece que essa é a realidade com a qual vamos conviver enquanto bilhões de dólares estão sendo investidos em empresas de IA. Muitas pessoas que deveriam saber melhor acreditam que há algo profundo acontecendo nos bastidores e são rápidas em culpar “viés” e barreiras sendo muito rígidas. Mas quando se aprofunda um pouco mais, descobre-se que essas chamadas alucinações não são uma força misteriosa implementada por pessoas que estão “acordadas demais”, ou algo do tipo. Elas são simplesmente um produto dessa tecnologia de IA que não é muito boa em seu trabalho.

Felizmente, um juiz em Washington reconheceu que essa tecnologia não é capaz de fornecer uma imagem melhor. Embora não duvidemos que haja muitos juízes nos EUA que tenham comprado a hype de IA e não entendem as implicações. É apenas uma questão de tempo antes de termos um vídeo aprimorado por IA usado em tribunal que não mostra nada além de informações visuais adicionadas muito depois do fato.