OpenAI Diz Que Pode Agora Identificar Imagens Geradas Por OpenAI — Na Maioria

A OpenAI está lidando com um problema cada vez mais sério: imagens falsas geradas por sua própria tecnologia.

A empresa de IA anunciou na terça-feira que está lançando uma ferramenta para detectar conteúdo criado por seu gerador de texto para imagem DALL-E 3. A empresa também anunciou que está abrindo inscrições para um primeiro grupo de testadores para seu classificador de detecção de imagem, que “prevê a probabilidade de uma imagem ter sido gerada” por seu DALL-E 3.

“Nosso objetivo é possibilitar pesquisas independentes que avaliem a eficácia do classificador, analisem sua aplicação no mundo real, destaquem considerações relevantes para esse uso e explorem as características do conteúdo gerado por AI”, declarou a OpenAI em um comunicado.

A OpenAI afirmou que os testes internos de uma versão inicial de seu classificador mostraram alta precisão na detecção de diferenças entre imagens não geradas por AI e conteúdo criado pelo DALL-E 3. A ferramenta detectou corretamente 98% das imagens geradas pelo DALL-E 3, enquanto menos de 0,5% das imagens não geradas por AI foram erroneamente identificadas como geradas por AI.

Edições em imagens, como compressão, recorte e saturação, têm um impacto mínimo no desempenho da ferramenta, de acordo com a OpenAI. No entanto, a empresa afirmou que outros tipos de modificações podem reduzir o desempenho. A empresa também descobriu que sua ferramenta não apresenta um desempenho tão bom ao distinguir entre imagens geradas pelo DALL-E 3 e conteúdo gerado por outros modelos de AI.

“A preocupação com a eleição está impulsionando completamente grande parte deste trabalho”, disse David Robinson, chefe de planejamento de políticas da OpenAI, ao Wall Street Journal. “É o principal contexto de preocupação que ouvimos dos formuladores de políticas.”

Uma pesquisa de eleitores americanos pelo Instituto de Política de AI em fevereiro encontrou que 77% dos entrevistados disseram que, quando se trata de geradores de vídeos de AI – como o Sora da OpenAI, que ainda não está disponível ao público – estabelecer limites e salvaguardas para evitar o uso indevido é mais importante do que tornar os modelos mais amplamente disponíveis. Mais de dois terços dos entrevistados disseram que os desenvolvedores de modelos de AI devem ser responsabilizados legalmente por qualquer atividade ilegal.

“Isso realmente mostra como o público está levando essa tecnologia a sério”, disse Daniel Colson, fundador e diretor executivo da AIPI. “Eles acham que é poderoso. Eles viram como as empresas de tecnologia implantam esses modelos e algoritmos e tecnologias, e isso leva a resultados completamente transformadores para a sociedade.”

Além de lançar sua ferramenta de detecção, a OpenAI disse na terça-feira que está se juntando ao Comitê Diretivo da C2PA, ou Coalizão para Procedência e Autenticidade de Conteúdo, que é um padrão amplamente utilizado para certificar conteúdo digital. A empresa afirmou que começou a adicionar metadados da C2PA a imagens geradas e editadas pelo DALL-E 3 no ChatGPT e em sua API no início deste ano, e integrará metadados da C2PA para o Sora quando for amplamente lançado.