Negli Stati Uniti continua, e anzi si intensifica, il dibattito sull’impatto dell’intelligenza artificiale sui minori, con un nuovo provvedimento legislativo che potrebbe rappresentare uno dei più severi mai proposti finora; si tratta del GUARD Act, presentato dai senatori Josh Hawley e Richard Blumenthal, che punta a vietare l’accesso ai chatbot IA agli under 18 e a introdurre un sistema obbligatorio di verifica dell’età per tutti gli utenti.

La proposta arriva a poche settimane da un’audizione al Senato in cui genitori, esperti di sicurezza e gruppi di tutela dei minori hanno evidenziato i potenziali rischi derivati dall’uso di chatbot avanzati, soprattutto per quanto riguarda temi sensibili come la salute mentale, la sessualità e la manipolazione psicologica.

Nuove e stringenti regole in vista per l’utilizzo dei chatbot IA negli USA

Nell’ottica del provvedimento, le aziende che sviluppano o distribuiscono chatbot basati sull’IA sarebbero obbligate a verificare l’età degli utenti, richiedendo il caricamento di un documento d’identità valido o ricorrendo a un’altra forma di convalida ragionevole, come ad esempio una scansione biometrica del volto. Non si tratterebbe dunque di un semplice check tramite autocertificazione (come avviene oggi su molti servizi online), ma di un sistema molto più stringente e invasivo, non dissimile dalle norme già in fase di sperimentazione per l’accesso ai contenuti per adulti.

Oltre al controllo dell’età, il GUARD Act introduce anche un’altra misura piuttosto particolare, ogni chatbot dovrebbe ribadire di non essere umano ogni 30 minuti di utilizzo, e includere meccanismi di sicurezza che gli impediscano di sostenere, anche indirettamente, di essere una persona reale; una linea che ricalca quanto già stabilito da una legge approvata di recente in California, volta a impedire la simulazione di identità umana, soprattutto nei contesti di vulnerabilità degli utenti.

Il provvedimento vieterebbe inoltre qualsiasi forma di chatbot che produca contenuti sessuali rivolti ai minori o che promuova l’autolesionismo e il suicidio. Blumenthal ha dichiarato che l’obbiettivo è mettere un freno a un’IA sfruttatrice o manipolativa, sottolineando come a suo avviso le big tech non abbiano dato prova di poter gestire in autonomia un equilibrio corretto tra innovazione e tutela dei più giovani.

Se approvata, la legge potrebbe avere un impatto significativo su tutte le principali piattaforme IA generative presenti negli USA: modelli conversazionali, assistenti virtuali integrati nei servizi di ricerca, strumenti educativi e perfino sistemi embedded nei social network. Una regolamentazione così rigida potrebbe rallentare l’adozione dell’IA nelle scuole e tra gli adolescenti, categoria che paradossalmente è oggi tra quelle che ne fa un uso più frequente sia per lo studio che per la sperimentazione creativa.

Non mancano poi i dubbi legati alla privacy, l’implementazione di verifiche dell’età così strette potrebbe spingere molte aziende a raccogliere dati sensibili di milioni di utenti, aprendo nuove questioni su sicurezza e potenziali fughe di informazioni.

Alcuni osservatori ritengono che il GUARD Act possa rappresentare un precedente legislativo importante anche fuori dagli Stati Uniti, se dovesse essere approvato potrebbe ispirare normative simili nell’Unione Europea, dove la discussione sulla protezione dei minori nell’ambito dell’IA è solo all’inizio ma, come sempre accade in questi casi, tende a muoversi rapidamente quando emergono casi mediaticamente rilevanti o pressioni istituzionali coordinate.

Per il momento si tratta ancora di una proposta, ma il fatto che arrivi congiuntamente da un senatore repubblicano e uno democratico indica un raro fronte bipartisan che potrebbe favorirne l’approvazione. Bisognerà attendere per scoprire se il legislatore statunitense sceglierà di imboccare la strada di una regolamentazione dura o se, come già avvenuto in altri contesti digitali, il provvedimento verrà ammorbidito nel corso del dibattito parlamentare.