Um juiz no estado de Washington bloqueou evidências em vídeo que foram “melhoradas por IA” de serem apresentadas em um julgamento por triplo homicídio. E isso é uma coisa boa, dado o fato de que muitas pessoas parecem pensar que aplicar um filtro de IA pode lhes fornecer acesso a dados visuais secretos. O Juiz Leroy McCullough, no condado de King, Washington, escreveu em uma nova decisão que a tecnologia de IA usada, “métodos opacos para representar o que o modelo de IA ‘pensa’ que deve ser mostrado,” segundo um novo relatório da NBC News de terça-feira. E isso é um pouco refrescante de clareza sobre o que está acontecendo com essas ferramentas de IA em um mundo de hype de IA. “Este Tribunal considera que a admissão desta evidência melhorada por IA levaria a uma confusão das questões e a uma confusão dos depoimentos das testemunhas oculares, e poderia levar a um julgamento demorado dentro de um julgamento sobre o processo não revisável por pares usado pelo modelo de IA”, escreveu McCullough. O caso envolve Joshua Puloka, um homem de 46 anos acusado de matar três pessoas e ferir outras duas em um bar nos arredores de Seattle. Advogados de Puloka queriam apresentar um vídeo de celular capturado por um espectador que foi melhorado por IA, embora não esteja claro o que eles acreditam que poderia ser aprendido das imagens alteradas. Os advogados de Puloka supostamente usaram um “especialista” em produção de vídeo criativo que nunca havia trabalhado em um caso criminal antes para “melhorar” o vídeo. A ferramenta de IA usada por esse especialista sem nome foi desenvolvida pela Topaz Labs, com sede no Texas, que está disponível para qualquer pessoa com uma conexão com a Internet. ** A introdução de ferramentas de imagem alimentadas por IA nos últimos anos levou a mal-entendidos generalizados sobre o que é possível com essa tecnologia. Muitas pessoas acreditam que executar uma foto ou vídeo através de aprimoramentos de IA pode lhe dar uma ideia melhor das informações visuais já existentes. Mas, na realidade, o software de IA não está fornecendo uma imagem mais clara das informações presentes na imagem – o software está simplesmente adicionando informações que não estavam lá originalmente. Por exemplo, houve uma teoria da conspiração generalizada de que Chris Rock estava usando algum tipo de proteção facial quando foi agredido por Will Smith no Oscar em 2022. A teoria começou porque as pessoas começaram a executar capturas de tela do tapa por programas de aprimoramento de imagem, acreditando que poderiam obter uma visão melhor do que estava acontecendo. Mas isso não é o que acontece quando você passa imagens por aprimoramento de IA. O programa de computador está apenas adicionando mais informações na tentativa de tornar a imagem mais nítida, o que muitas vezes pode distorcer o que realmente está lá. Inúmeras fotos e vídeos de alta resolução do incidente mostram conclusivamente que Rock não tinha uma proteção no rosto. Mas isso não impediu as pessoas de acreditar que poderiam ver algo escondido à vista, aumentando a imagem para “8K”. O surgimento de produtos rotulados como IA tem criado muita confusão entre a pessoa comum sobre o que essas ferramentas realmente podem realizar. Grandes modelos de linguagem como o ChatGPT convenceram pessoas inteligentes de que esses chatbots são capazes de raciocínio complexo quando isso simplesmente não é o que está acontecendo nos bastidores. Os LLMs estão essencialmente apenas prevendo a próxima palavra que devem produzir para soar como um humano plausível. Mas porque eles fazem um bom trabalho em parecer humanos, muitos usuários acreditam que estão fazendo algo mais sofisticado do que um truque de mágica. E isso parece ser a realidade com a qual vamos conviver enquanto bilhões de dólares estão sendo injetados em empresas de IA. Muitas pessoas que deveriam saber melhor acreditam que há algo profundo acontecendo nos bastidores e são rápidas em culpar “viés” e guardas sendo muito rigorosos. Mas quando você cavou um pouco mais fundo, descobre que essas chamadas “alucinações” não são uma força misteriosa promovida por pessoas que são muito atentas, ou algo parecido. Eles são apenas um produto deste tecnologia de IA não ser muito boa em seu trabalho. Felizmente, um juiz em Washington reconheceu que essa tecnologia não é capaz de fornecer uma imagem melhor. Embora não duvidemos que haja muitos juízes nos EUA que se deixaram levar pela propaganda de IA e não entendem as implicações. É apenas uma questão de tempo até que tenhamos um vídeo aprimorado por IA usado em tribunal que não mostre nada além de informações visuais adicionadas bem após o fato.
Alex Barbosa
- 15 de maio de 2024
- Inteligência Artificial
Tribunal proíbe uso de provas de vídeo ‘aperfeiçoadas por IA’ porque é assim que a IA funciona.
Alex Barbosa
Apaixonado por tecnologia e inovações. Compartilho meu conhecimento e insights sobre o futuro, desde inteligência artificial até realidade virtual. Junte-se a mim nesta jornada para desvendar as maravilhas da tecnologia e seu impacto no mundo.