OpenAI Afirma Que Pode Agora Identificar Imagens Geradas Pelo OpenAI — Maioria

A OpenAI está abordando uma questão cada vez mais urgente: imagens falsas geradas por sua própria tecnologia. A empresa de IA anunciou na terça-feira que está lançando uma ferramenta para detectar conteúdo criado por seu gerador de texto para imagem DALL-E 3. A empresa também disse que está abrindo inscrições para um primeiro grupo de testadores para seu classificador de detecção de imagem, que “prevê a probabilidade de uma imagem ter sido gerada” por seu DALL-E 3. “Nosso objetivo é permitir pesquisas independentes que avaliem a eficácia do classificador, analisem sua aplicação no mundo real, destaquem considerações relevantes para tal uso e explorem as características de conteúdos gerados por IA,” disse a OpenAI em uma declaração. A OpenAI afirmou que testes internos de uma versão inicial de seu classificador mostraram alta precisão em detectar diferenças entre imagens não geradas por IA e conteúdos criados pelo DALL-E 3. A ferramenta detectou corretamente 98% das imagens geradas pelo DALL-E 3, enquanto menos de 0,5% das imagens não geradas por IA foram erroneamente identificadas como geradas por IA. Edições nas imagens, como compressão, recorte e saturação, têm “impacto mínimo” no desempenho da ferramenta, segundo a OpenAI. No entanto, a empresa disse que outros tipos de modificações “podem reduzir o desempenho”. A empresa também constatou que sua ferramenta não funciona tão bem ao distinguir entre imagens geradas pelo DALL-E 3 e conteúdos gerados por outros modelos de IA. Uma pesquisa de eleitores dos EUA pelo Instituto de Política de IA em fevereiro constatou que 77% dos entrevistados disseram que, no que diz respeito a geradores de vídeo de IA – como o Sora da OpenAI, que ainda não está disponível para o público – colocar barreiras e proteções para evitar o uso indevido é mais importante do que tornar os modelos mais amplamente disponíveis. Mais de dois terços dos entrevistados disseram que os desenvolvedores de modelos de IA devem ser responsabilizados legalmente por qualquer atividade ilegal. “Isso realmente mostra como o público está levando essa tecnologia a sério,” disse Daniel Colson, fundador e diretor executivo do AIPI. “Eles acham que é poderosa. Eles viram a forma como as empresas de tecnologia implantam esses modelos e algoritmos e tecnologias, e levam a resultados completamente transformadores da sociedade.” Além de lançar sua ferramenta de detecção, a OpenAI disse na terça-feira que está se juntando ao Comitê Diretivo do C2PA, ou da Coalizão para Procedência e Autenticidade de Conteúdos, que é um padrão amplamente utilizado para certificar conteúdo digital. A empresa disse que começou a adicionar metadados do C2PA às imagens geradas e editadas pelo DALL-E 3 no ChatGPT e em sua API no início deste ano, e integrará metadados do C2PA para o Sora quando for amplamente lançado.