OpenAI Diz Que Pode Agora Identificar Imagens Geradas Por OpenAI — Majoritariamente

OpenAI está lidando com uma questão cada vez mais urgente: imagens falsas geradas por sua própria tecnologia.

A empresa de inteligência artificial anunciou na terça-feira que está lançando uma ferramenta para detectar conteúdo criado por seu gerador de texto para imagem DALL-E 3. A empresa também disse que está abrindo inscrições para uma primeira leva de testadores para seu classificador de detecção de imagem, que “prevê a probabilidade de uma imagem ter sido gerada” por seu DALL-E 3.

“Nosso objetivo é possibilitar pesquisas independentes que avaliem a eficácia do classificador, analisem sua aplicação no mundo real, destaquem considerações relevantes para tal uso e explorem as características do conteúdo gerado por IA,” disse a OpenAI em um comunicado.

A OpenAI disse que testes internos de uma versão inicial de seu classificador mostraram alta precisão na detecção de diferenças entre imagens não geradas por IA e conteúdo criado pelo DALL-E 3. A ferramenta detectou corretamente 98% das imagens geradas pela DALL-E 3, enquanto menos de 0,5% das imagens não geradas por IA foram identificadas incorretamente como geradas por IA.

Edições em imagens, como compressão, recorte e saturação, têm um “impacto mínimo” no desempenho da ferramenta, de acordo com a OpenAI. No entanto, a empresa disse que outros tipos de modificações “podem reduzir o desempenho”. A empresa também descobriu que sua ferramenta não tem um desempenho tão bom ao distinguir entre imagens geradas pela DALL-E 3 e conteúdo gerado por outros modelos de IA.

“A preocupação eleitoral está impulsionando muito deste trabalho”, disse David Robinson, chefe de planejamento de políticas na OpenAI, ao Wall Street Journal. “É o principal contexto de preocupação que ouvimos dos formuladores de políticas.”

Uma pesquisa de eleitores dos EUA pelo Instituto de Política de IA em fevereiro constatou que 77% dos entrevistados disseram que quando se trata de geradores de vídeos de IA – como o Sora da OpenAI, que ainda não está disponível ao público – colocar barreiras de proteção e salvaguardas para evitar o uso indevido é mais importante do que tornar os modelos mais amplamente disponíveis. Mais de dois terços dos entrevistados disseram que os desenvolvedores de modelos de IA devem ser responsabilizados legalmente por qualquer atividade ilegal.

“Isso realmente aponta como o público está levando essa tecnologia a sério”, disse Daniel Colson, fundador e diretor executivo do AIPI. “Eles acham que é poderoso. Eles viram a maneira como as empresas de tecnologia implementam esses modelos e algoritmos e tecnologias, e isso leva a resultados totalmente transformadores para a sociedade.”

Além de lançar sua ferramenta de detecção, a OpenAI disse na terça-feira que está se juntando ao Comitê de Direção do C2PA, ou Coalizão de Proveniência e Autenticidade de Conteúdo, que é um padrão amplamente utilizado para certificar conteúdo digital. A empresa disse que começou a adicionar metadados de C2PA a imagens geradas e editadas pelo DALL-E 3 no ChatGPT e em sua API no início deste ano, e irá integrar metadados de C2PA para Sora quando for amplamente lançado.