Nella mattinata di oggi, mercoledì 14 giugno, con 499 voti a favore, 28 contrari e 93 astensioni il Parlamento europeo ha approvato la posizione negoziale per quanto riguarda la legge sull’intelligenza artificiale. Iniziano cioè i primi colloqui con i governi europei e col Consiglio europeo in attesa di un testo definitivo che miri a garantire che le IA siano conformi con i diritti e i valori europei. Le norme promuovono un uso dell’intelligenza artificiale trasparente, sicuro e affidabile, ponendo dei divieti e sostenendo alcuni principi fondamentali alla base dei diritti umani e dell’Unione europea.

Cosa prevede la legge sull’intelligenza artificiale dell’Unione europea

L’approccio scelto dall’Unione europea è basato sul rischio, da cui ne conseguono alcuni obblighi destinati a fornitori e operatori delle soluzioni di intelligenza artificiale. In altre parole i sistemi di IA contraddistinti da livelli di rischio inaccettabile per la sicurezza delle persone saranno quindi vietati, divieto che viene esteso anche per i sistemi usati per classificare le persone in base al comportamento sociale e alle caratteristiche personali e per i seguenti usi reputati intrusivi e discriminatori:

  • sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e se strettamente necessario per investigare uno specifico reato grave;
  • sistemi di categorizzazione biometrica basati su dati sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
  • sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
  • sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione;
  • l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

Sono invece ad alto rischio i sistemi di intelligenza artificiale che possono comportare danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone e ambientali, lista a cui sono stati aggiunte anche le IA usate per influenzare gli elettori, l’esito delle elezioni e i sistemi di raccomandazione usati dalle piattaforme di social media con più di 45 milioni di utenti (cioè tutte le più note).

Il Parlamento europeo sottolinea inoltre che i fornitori di modelli IA di base dovrebbero valutare e mitigare i possibili rischi, oltre che registrare i modelli nella banca dati dell’UE prima dell’immissione sul mercato. Quest’ultima in particolare è una richiesta che si trova in linea con la decisione di Google DeepMind, OpenAI e Anthropic (tre colossi del settore dell’intelligenza artificiale) che hanno annunciato proprio nelle scorse ore di aprire i rispettivi modelli al governo britannico per scopi di ricerca e di sicurezza, in ottica trasparenza. Si tratta di una sorta di accesso prioritario che sarà concesso per “aiutare a costruire valutazioni migliori e per comprendere meglio le opportunità e i rischi di questi sistemi”, ha affermato il primo ministro britannico Rishi Sunak alla London Tech Week, come riportato da Politico.

Ma fra i punti più rilevanti di questa prima bozza di legge europea sull’intelligenza artificiale c’è tuttavia la richiesta ai sistemi di IA generativa come ChatGPT et similia di rispettare i requisiti di trasparenza, cioè specificando che il contenuto è stato generato dall’IA, per distinguere ad esempio le “immagini deepfake” da quelle reali, fornendo gli strumenti per evitare la generazione di contenuti illegali e delle sintesi dettagliate dei dati protetti dal diritto d’autore usati per l’addestramento dei software stessi.

Nel comunicato stampa relativo si legge inoltre che i deputati intendono rafforzare il diritto dei cittadini di presentare reclami e di ricevere spiegazioni sul funzionamento dei sistemi di intelligenza artificiale ad alto rischio, argomenti che verranno trattati dall’Ufficio dell’UE per l’IA che avrà il compito di monitorare l’attuazione delle norme sull’IA.

Al di là dei tanti dubbi sorti relativi all’applicabilità di queste regole, in particolare sui modi coi quali l’Unione europea intende monitorare le aziende IA nei requisiti di trasparenza citati, per il momento non c’è ancora nulla di definitivo, perché ora la palla passa al Consiglio e ai governi europei, i cui negoziati sono già iniziati.

Potrebbero interessarti anche: ChatGPT e il futuro dell’intelligenza artificiale, nel lavoro e nella quotidianità e MusicGen è l’IA di Meta che trasforma il testo in musica, anche “ispirata”