Todo mundo sabe que a desinformação online é um grande problema – um que, sem dúvida, separou comunidades, manipulou eleições e fez com que certos segmentos da população global perdessem a cabeça. Claro, ninguém parece particularmente preocupado em resolver esse problema. Na verdade, as instituições mais responsáveis pela desinformação online (e, portanto, as mais bem posicionadas para fazer algo a respeito) – isto é, as empresas de tecnologia – parecem determinadas a fazer tudo o que podem para tornar o problema exponencialmente pior.
É o caso da OpenAI, que lançou seu novo gerador de texto para vídeo, o Sora, na quinta-feira. O modelo foi projetado para permitir que os usuários da web gerem vídeos de IA de alta qualidade com apenas um prompt de texto. A aplicação está atualmente impressionando a internet com sua bizarra variedade de imagens visuais – seja um desfile de Ano Novo Chinês, um cara correndo para trás em uma esteira no escuro, um gato na cama, ou dois navios piratas girando em torno de uma xícara de café.
Neste ponto, apesar de sua missão “mudar o mundo”, pode-se argumentar que a maior contribuição da OpenAI para a internet tem sido a geração instantânea de incontáveis terabytes de porcaria digital. Todas as ferramentas da empresa são geradoras de conteúdo, as quais, os especialistas alertam, estão prontas para serem usadas em fraudes e campanhas de desinformação.
Em seu post sobre o Sora, a equipe da OpenAI reconhece abertamente que pode haver alguns aspectos negativos em seu novo aplicativo. Para lidar com esses aspectos negativos, a empresa diz que está trabalhando em tecnologias de watermark que sinalizariam o conteúdo criado por seu gerador. Também está colaborando com pessoas conhecedoras para descobrir como tornar menos tóxica a iminente inundação de porcaria gerada por IA que o Sora provocará. Sora ainda não está disponível ao público, e, enquanto isso, a OpenAI diz que criará sistemas que negarão aos usuários que desejam gerar imagens violentas ou sexuais. A declaração observa:
“Estaremos envolvendo formuladores de políticas, educadores e artistas ao redor do mundo para entender suas preocupações e identificar casos de uso positivos para essa nova tecnologia. Apesar da extensa pesquisa e testes, não podemos prever todas as formas benéficas pelas quais as pessoas usarão nossa tecnologia, nem todas as formas pelas quais as pessoas a abusarão.”
Esse enquadramento do problema – como se a OpenAI não tivesse certeza de como seu aplicativo poderia ser mal utilizado – é meio engraçado, já que está totalmente óbvio como isso acontecerá. Uma vez que estiver disponível, o Sora gerará conteúdo falso em uma escala gigantesca – parte do qual provavelmente será usado para desinformação, parte do qual, parece indiscutível, será usado para auxiliar em uma variedade de fraudes e golpes, e parte do qual será usada para gerar conteúdo tóxico de uma forma ou de outra. Todo esse conteúdo inundará os canais de mídia social, tornando mais difícil para o público em geral distinguir entre o que é real e o que é falso, e tornando a internet, de maneira geral, muito mais irritante. Não acho que seja necessário um painel global de especialistas para descobrir isso.
A OpenAI disse que deseja impor limites significativos ao conteúdo violento e sexual produzido pelo Sora, mas os usuários da web demonstraram quão experientes podem ser na violação de sistemas de IA para gerar conteúdo que desobedece as políticas de uso das empresas. Não parece impossível que o mesmo seja verdade aqui.
Há uma série de outros aspectos negativos óbvios deste aplicativo. Por um lado, o Sora – e outros similares – provavelmente não terão o maior impacto ambiental. Pesquisadores mostraram que os geradores de texto para imagem são significativamente piores, do ponto de vista ambiental, do que os geradores de texto, e criar uma imagem de IA consome a mesma quantidade de energia que carregar completamente seu smartphone. Por outro lado, as novas tecnologias de geração de texto para vídeo provavelmente prejudicarão a economia dos criadores de vídeo, porque por que as empresas deveriam pagar às pessoas para fazer conteúdo visual quando tudo o que é necessário para criar um vídeo é clicar em um botão?
Assim, o Sora parece ser um grande “foda-se” para a realidade, mas também um “foda-se” para muitas outras coisas. No que diz respeito à classe corporativa neste país, nada realmente importa, exceto o dinheiro. Foda-se o meio ambiente, foda-se os artistas, foda-se uma internet livre de desinformação, foda-se a saúde do discurso político, foda-se qualquer coisa que atrapalhe o lucro. Qualquer coisa que possa ser explorada para fazer dinheiro deve ser explorada, mesmo que seja um programa de software cuja única utilidade real seja a capacidade de gerar um vídeo de um hamster-cowboy montando um dragão. Como um usuário X colocou: “É isso que os idiotas sacrificam o meio ambiente. Coisa. Estúpida. Como. Esta.”