OpenAI ha annunciato di aver iniziato a sviluppare nuovi metodi per dimostrare se i contenuti sono stati generati dall’intelligenza artificiale.

In particolare la società sta lavorando su uno strumento di rilevamento delle immagini in grado di determinare se la foto è stata generata dall’intelligenza artificiale, nonché una filigrana a prova di manomissione che può taggare contenuti come l’audio.

Lo strumento di rilevamento delle immagini prevede la probabilità che un’immagine o foto sia stata creata da DALL-E 3 con un’attendibilità del 98% circa, anche se viene ritagliata, compressa o modificata la saturazione, ma per quelle generate da altri modelli di intelligenza artificiale l’accuratezza è solo il 5-10%.

OpenAI ha inoltre iniziato ad aggiungere filigrane ai contenuti di Voice Engine, la sua piattaforma di sintesi vocale attualmente in anteprima limitata che può creare (o clonare) la voce umana con appena 15 secondi di audio.

OpenAI lavora per poter dimostrare se i contenuti sono stati generati dall’IA

L’azienda di Sam Altman spiega che entrambi gli strumenti sono ancora in fase di perfezionamento e aggiunge che è necessario ottenere feedback dagli utenti per testarne l’efficacia.

OpenAI è membro della C2PA (Coalition of Content Provenance and Authority), insieme ad altre aziende come Microsoft e Adobe, e questo mese è entrata a far parte anche del comitato direttivo.