L’intelligenza artificiale, come ormai sappiamo fin troppo bene, sta rapidamente trovando spazio in ambiti sempre più delicati e strategici, passando dall’intrattenimento e dalla produttività personale fino ad arrivare, spesso senza troppi filtri, a settori decisamente più sensibili. È proprio in questo contesto che si inserisce l’ultima, discussa iniziativa dell’amministrazione Trump che, secondo quanto riportato, starebbe valutando l’utilizzo dell’IA per redigere vere e proprie normative federali.

Il primo banco di prova sarebbe il Dipartimento dei Trasporti degli Stati Uniti (DOT), un’agenzia che supervisiona la sicurezza dell’aviazione civile, dei gasdotti, del trasporto ferroviario di materiali pericolosi e delle infrastrutture stradali; insomma, un ambito in cui errori, ambiguità o imprecisioni non sono semplicemente fastidiose, ma potenzialmente fatali.

Offerta

MacBook Air 13'', M4 (2025), 512GB

1249€ invece di 1399€
-11%

Google Gemini al centro del progetto

Secondo i documenti interni e le testimonianze raccolte, il DOT avrebbe già presentato al proprio personale un piano per utilizzare Google Gemini come strumento di supporto, o meglio di produzione, delle bozze normative. L’iniziativa è stata illustrata lo scorso dicembre durante una dimostrazione interna, descritta come un’anteprima del potenziale dell’IA di rivoluzionare il modo in cui redigiamo le normative.

L’avvocato dell’agenzia Daniel Cohen ha parlato apertamente di nuovi strumenti entusiasmanti in grado di aiutare i redattori a lavorare meglio e più velocemente, mentre il consigliere generale Gregory Zerzan avrebbe ribadito, durante una successiva riunione, che il presidente Donald Trump è molto entusiasta del progetto. Non solo, il DOT sarebbe destinato a diventare la punta di diamante di un più ampio sforzo federale, la prima agenzia pienamente abilitata a usare l’IA per scrivere regolamenti.

“Non serve una regola perfetta, basta che sia abbastanza buona”

Dai resoconti delle riunioni emerge un approccio che molti dipendenti hanno definito, senza troppi giri di parole, quantomeno preoccupante; Zerzan avrebbe affermato che non è necessario produrre regolamenti perfetti, né particolarmente raffinati: l’obbiettivo sarebbe piuttosto quello di inondare la zona con norme sufficientemente buone.

Un concetto che, applicato alla sicurezza dei trasporti, lascia inevitabilmente spazio a molti interrogativi. Perché se è vero che la burocrazia federale è notoriamente lenta, con regolamenti che possono richiedere mesi o addirittura anni per essere scritti e approvati, è altrettanto vero che questa lentezza è spesso il risultato di verifiche, revisioni e controlli incrociati pensati proprio per evitare errori gravi.

Velocità prima di tutto (forse troppo)

Secondo i promotori del piano, il vero vantaggio dell’IA sarebbe la velocità; durante la dimostrazione di dicembre, ai dipendenti sarebbe stato mostrato come Gemini possa generare una bozza completa di regolamento in pochi minuti, se non addirittura in secondi. Zerzan avrebbe persino parlato di 20 minuti per ottenere una bozza pronta per la revisione, con l’ambizione di comprimere l’intero processo normativo in circa 30 giorni.

Alcuni partecipanti hanno riferito che gran parte dei preamboli delle normative viene considerata poco più che insalata di parole, un tipo di testo che, secondo questa visione, l’IA sarebbe perfettamente in grado di produrre senza particolari rischi. Il problema però, è che durante la dimostrazione Gemini avrebbe generato un documento privo di riferimenti diretti al Codice dei Regolamenti Federali, un dettaglio tutt’altro che secondario.

Tra entusiasmo e allucinazioni

Il tema delle cosiddette allucinazioni dell’IA, ovvero la generazione di informazioni errate o inventate, sembra essere stato liquidato con una certa leggerezza; secondo alcuni presenti il relatore avrebbe minimizzato il problema, sostenendo che il personale umano avrebbe comunque il compito di correggere e rifinire il testo.

In pratica, la visione che emerge è quella di un futuro in cui i funzionari pubblici diventano revisori di bozze prodotte da un sistema automatizzato, più che veri autori delle normative. Una prospettiva che ha lasciato profondamente scettici diversi membri del DOT, soprattutto tra coloro che vantano decenni di esperienza nella redazione di regolamenti complessi.

Critiche interne ed esterne

Le critiche non arrivano solo dall’interno, Mike Horton, ex responsabile ad interim dell’intelligenza artificiale del Dipartimento dei Trasporti, ha paragonato l’uso di Gemini per scrivere regolamenti a far scrivere le leggi a uno stagista del liceo, sottolineando come l’approccio agire rapidamente e rompere le cose sia particolarmente pericoloso quando si parla di sicurezza pubblica.

Anche dal mondo accademico arrivano avvertimenti chiari, Bridget Dooling, professoressa di diritto amministrativo all’Ohio State University, ha ricordato che produrre molte parole non equivale a prendere decisioni governative di alta qualità, invitando a un uso estremamente cauto di questo strumenti. Altri osservatori fanno notare come il contesto sia ulteriormente complicato dai tagli al personale federale, che hanno già portato alla perdita di migliaia di dipendenti, inclusi oltre 100 avvocati solo dal DOT.

Un primo esperimento è già in corso

Nonostante le polemiche, il piano non è solo teorico, secondo quanto riportato il Dipartimento dei Trasporti avrebbe già utilizzato l’IA per redigere una norma della Federal Aviation Administration, attualmente non ancora pubblicata; un dettaglio che conferma come l’iniziativa sia già entrata nella fase operativa, anche se non è chiaro con quali livelli di supervisione e trasparenza.

Prospettive future tutte da chiarire

Al momento non è noto se l’amministrazione Trump intenda estendere ufficialmente questo approccio anche ad altre agenzie federali, né quali limiti verranno posti all’utilizzo dell’IA nella redazione delle normative; alcuni funzionari parlano di un semplice progetto pilota, altri lo interpretano come un’operazione di immagine per dimostrare leadership nell’adozione dell’intelligenza artificiale a livello federale.

Quel che è certo è che il dibattito è appena iniziato e che le implicazioni, sia sul piano legale sia su quello della sicurezza, sono tutt’altro che marginali. Bisognerà attendere per capire se l’IA diventerà davvero uno strumento strutturale della governance o se questo esperimento verrà ridimensionato alla luce delle critiche.