A OpenAI anunciou que está trabalhando em novas ferramentas para detectar imagens geradas usando seu modelo de inteligência artificial. Segundo a empresa, o classificador, como é chamado, identificou corretamente 98% das imagens geradas com o Dall-E 3. Entre as que não usaram IA, menos de 0,5% foram classificadas incorretamente. O desempenho com imagens de concorrentes, no entanto, pode ser menor.
A empresa afirma que modificações como compressão, recortes e mudanças de saturação têm impactos mínimos na capacidade de identificação. Por outro lado, edições como alterações de matiz ou adição de ruído gaussiano diminuem o desempenho.
Em testes envolvendo outros modelos, entre 5% a 10% das imagens geradas por IAs concorrentes foram classificadas como se tivessem sido criadas pelo Dall-E 3. Segundo a empresa, isso significa que o teste pode não funcionar tão bem caso outra ferramenta tenha sido utilizada para gerar um conteúdo.
A ferramenta da OpenAI continua em desenvolvimento e não foi liberada para o público. A empresa abriu um cadastro para o primeiro grupo de testadores do classificador. Interessados, incluindo laboratórios de pesquisa e instituições de jornalismo sem fins lucrativos, podem se inscrever e aguardar a seleção.
OpenAI trabalha em marcas d’água
Além de ferramentas para identificar criações de seus modelos de inteligência artificial, a OpenAI adotou o padrão da C2PA (Coalizão pela Proveniência e Autenticidade de Conteúdo, em tradução livre).
Com isso, ela passou a incluir metadados às imagens geradas usando o ChatGPT ou a API da companhia. Os vídeos gerados pelo Sora também serão integrados à C2PA quando a ferramenta for liberada para o público.
A OpenAI também trabalha em soluções independentes. Os áudios gerados pela plataforma Voice Engine contam com um sinal imperceptível, que pode ser usado para identificar que aquele conteúdo foi gerado por inteligência artificial.