Le piattaforme social si trovano di fronte a una scadenza apparentemente impossibile. L’India ha annunciato martedì nuove regole che richiedono a Instagram, X, YouTube e altre piattaforme di rimuovere i contenuti AI illegali molto più rapidamente e di assicurarsi che tutti i contenuti sintetici siano chiaramente etichettati. Le nuove norme entreranno in vigore il 20 febbraio, lasciando alle aziende tech appena otto giorni per adeguarsi.

Con oltre 1 miliardo di utenti internet, in gran parte giovani, l’India rappresenta uno dei mercati di crescita più importanti per le piattaforme social. Qualsiasi obbligo imposto in questo paese potrebbe avere ripercussioni sugli sforzi di moderazione dei deepfake a livello globale, o costringere i giganti tech a migliorare davvero i sistemi di rilevamento, o ammettere che servono soluzioni completamente nuove.

Cosa prevedono le nuove regole sui deepfake

Secondo le modifiche alle Information Technology Rules dell’India, le piattaforme digitali dovranno implementare “misure tecniche ragionevoli e appropriate” per impedire agli utenti di creare o condividere contenuti audio e video sintetici illegali, ovvero i deepfake.

Qualsiasi contenuto generato da AI che non viene bloccato dovrà essere incorporato con “metadati permanenti o altri meccanismi tecnici di provenienza appropriati”.

Per le piattaforme social dunque sono previsti obblighi specifici: richiedere agli utenti di dichiarare i materiali generati o modificati con AI, implementare strumenti che verifichino tali dichiarazioni, ed etichettare in modo prominente i contenuti AI affinché le persone possano identificarli immediatamente come sintetici. Per l’audio AI, ad esempio, potrebbero essere richieste dichiarazioni verbali integrate.

Rimozione dei contenuti illegali in tre ore

Un’altra novità significativa riguarda i tempi di rimozione. Le aziende social infatti dovranno eliminare i materiali illegali entro tre ore dalla scoperta o dalla segnalazione, sostituendo l’attuale scadenza di 36 ore. Questo si applica anche ai deepfake e ad altri contenuti AI dannosi.

La Internet Freedom Foundation (IFF) avverte che questi cambiamenti rischiano di trasformare le piattaforme in “censori a fuoco rapido“.

Queste tempistiche impossibilmente brevi eliminano qualsiasi revisione umana significativa, costringendo le piattaforme verso una rimozione automatizzata eccessiva,” ha dichiarato l’IFF.

Perché la scadenza è quasi impossibile da rispettare

Il problema di questo scenario è che i migliori metodi attualmente disponibili per rilevare ed etichettare i deepfake sono ancora gravemente sottosviluppati. Il sistema C2PA (noto anche come content credentials), considerato una delle soluzioni più avanzate a disposizione, funziona allegando metadati dettagliati a immagini, video e audio nel momento della creazione o modifica, per descrivere in modo invisibile come il contenuto è stato realizzato o alterato.

Meta, Google, Microsoft e molti altri giganti tech stanno già utilizzando C2PA, ma chiaramente non sta funzionando come dovrebbe. Peraltro, alcune piattaforme come Facebook, Instagram, YouTube e LinkedIn aggiungono etichette ai contenuti segnalati dal sistema C2PA, ma queste etichette sono difficili da individuare e alcuni contenuti sintetici che dovrebbero contenere quei metadati stanno sfuggendo ai controlli.

Le piattaforme social non possono etichettare nulla che non includa metadati di provenienza in partenza, come i materiali prodotti da modelli AI open source o dalle cosiddette “nudify app” che rifiutano di adottare lo standard volontario C2PA.

Un problema di interoperabilità

L’interoperabilità è uno dei maggiori problemi alla base di una massiccia adozione del C2PA, spiega l’autore del report. Sebbene le nuove regole indiane possano incoraggiarne l’adozione, i metadati C2PA sono tutt’altro che permanenti. Sono così facili da rimuovere che alcune piattaforme online possono eliminarli involontariamente durante il caricamento dei file.

Le nuove regole ordinano alle piattaforme di non permettere che i metadati o le etichette vengano modificati, nascosti o rimossi, ma non c’è molto tempo per capire come conformarsi. Piattaforme social come X, che non hanno implementato alcun sistema di etichettatura AI, hanno ora solo nove giorni per farlo.

Meta, Google e X non hanno risposto alle richieste di commento. Anche Adobe, la forza trainante dietro lo standard C2PA, non ha risposto.

I numeri in gioco

La questione è particolarmente delicata poiché stiamo parlando di un’enorme fetta di internet: l’India conta oltre 500 milioni di utenti sui social media; nel dettaglio, si tratta di 500 milioni di utenti YouTube, 481 milioni su Instagram, 403 milioni su Facebook e 213 milioni su Snapchat. È anche stimato essere il terzo mercato più grande per X.

Dato che le modifiche specificano meccanismi da implementare “nella misura tecnicamente fattibile“, i funzionari indiani sono probabilmente consapevoli che la tecnologia attuale di rilevamento e etichettatura AI non sia ancora pronta. Le organizzazioni che supportano C2PA hanno sempre sostenuto che il sistema funzionerà se abbastanza persone lo utilizzeranno, pertanto questa si prospetta come l’occasione ideale per dimostrarlo, nonostante le difficoltà e la scadenza breve.

I nostri contenuti da non perdere: