Con 523 voti favorevoli, 46 contrari e 49 astensioni, il Parlamento europeo ha approvato oggi, 13 marzo 2024, la legge sull’intelligenza artificiale. Promuovere l’innovazione pur garantendo sicurezza e rispetto dei diritti fondamentali sono i principi su cui si basa il regolamento, il primo al mondo che disciplina queste nuove tecnologie, principalmente imponendo dei divieti e degli obblighi da rispettare sulla base dei possibili rischi e del livello d’impatto delle IA.

Per l’entrata in vigore effettiva, è necessario che questa legge sull’intelligenza artificiale superi la verifica finale di giuristi e linguisti, e che venga approvata formalmente anche dal Consiglio. Una volta pubblicata nella Gazzetta Ufficiale dell’UE, verrà applicata integralmente due anni dopo, salvo alcune eccezioni. Intanto, scopriamone i punti chiave.

Obblighi e divieti della legge europea sull’intelligenza artificiale

A poche ore di distanza dagli investimenti sull’IA promessi dalla Presidente del Consiglio Giorgia Meloni, il Parlamento ha approvato una legge europea sull’intelligenza artificiale che prese forma quasi un anno fa, quando la stessa istituzione pose sul tavolo i primi principi chiave per regolamentarne l’utilizzo. Soprattutto l’approccio è rimasto inalterato, basato sul rischio e sul livello d’impatto che i sistemi di intelligenza artificiale potrebbero avere sulle persone.

Le applicazioni IA vietate dall’Europa e alcune eccezioni

Sono vietati innanzitutto i sistemi di categorizzazione biometrica basati sulle caratteristiche sensibili delle persone, quelli che permettono di estrapolare in maniera indiscriminata immagini di volti da internet o dalle registrazioni delle videocamere a circuito chiuso, con l’obiettivo di creare banche dati utili per il riconoscimento facciale.

La legge europea sull’intelligenza artificiale pone un muro anche ai sistemi di riconoscimento delle emozioni sui luoghi di lavoro e nelle scuole, le soluzioni di credito sociale (come quello cinese pensato per classificare la reputazione dei cittadini), di polizia predittiva (che usa le IA per elaborare previsioni statistiche di luoghi, modi, tempi e autori di crimini, ad esempio il software italiano Giove) e, più in generale, “i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone”, si legge nel comunicato stampa del Parlamento europeo.

Per le forze dell’ordine il regolamento prevede alcune eccezioni, possibili in casi particolari. Rappresentano un esempio i software di identificazione in tempo reale se limitati nel tempo e nello spazio, con un’autorizzazione giudiziaria o amministrativa, usabili per cercare persone scomparse o per prevenire attacchi terroristici. Essendo considerati sistemi di intelligenza artificiale ad alto rischio è necessario che il motivo per il quale le forze dell’ordine li richiedono sia collegato a un reato.

Gli altri obblighi previsti dalla legge

Per i sistemi di intelligenza artificiale che l’Europa considera ad alto rischio, che cioè “potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto” sono previsti alcuni obblighi. La legge impone di valutare e ridurre i rischi, garantire sorveglianza umana, trasparenza e accuratezza, anche di tenere dei registri d’uso; le persone avranno il diritto inoltre di presentare reclami sul funzionamento di questi sistemi e di ricevere delle spiegazioni sulle decisioni basate sulle IA ad alto rischio, qualora incidano sui loro diritti.

L’Europa reputa sistemi di IA ad alto rischio quelli usati nelle “infrastrutture critiche” come l’istruzione e la formazione professionale, l’occupazione, i servizi pubblici e privati di base (banche e assistenza sanitaria), oltre alla giustizia, ai processi democratici (sistemi dal potenziale impatto sulle elezioni) e ai sistemi di contrasto, migrazione e gestione delle frontiere.

La legge europea sull’intelligenza artificiale impone anche alcuni obblighi di trasparenza, imponendo ai sistemi di IA (e a chi li gestisce) il rispetto del diritto d’autore durante le fasi di addestramento dei modelli su cui questi ultimi sono basati (i cosiddetti LLM ad esempio, in italiano i modelli linguistici di grandi dimensioni). Per quelli più potenti l’Europa chiede anche di effettuare delle valutazioni, di mitigare i rischi sistemici e di riferire in caso di incidenti. Importante anche la questione relativa ai contenuti generati o elaborati dalle intelligenze artificiali, sia immagini che video o audio, completamente artificiali o manipolati, contenuti che devono essere etichettati come tali.

È importante anche promuovere il progresso

Nella legge sull’intelligenza artificiale europea, oltre a divieti e obblighi vari, ci sono anche alcune disposizioni per i paesi dell’Unione Europea, come quella relativa all’istituzione di spazi di sperimentazione e di strumenti di prova in condizioni reali, da rendere accessibili a livello nazionale in maniera tale che possano fare da fucina per le start-up e le piccole e medie imprese che intendono sviluppare e sperimentare nuovi sistemi di intelligenza artificiale.

“Dopo due anni intensi di lavoro siamo finalmente riusciti ad approvare la prima legge vincolante al mondo sull’intelligenza artificiale volta a ridurre i rischi e aumentare opportunità, combattere la discriminazione e portare trasparenza. Grazie al Parlamento europeo, le pratiche inaccettabili di IA saranno proibite in Europa. Tuteliamo i diritti dei lavoratori e dei cittadini. Dovremo ora accompagnare le aziende a conformarsi alle regole prima che entrino in vigore. Siamo riusciti a mettere gli esseri umani e i valori europei al centro dello sviluppo dell’IA” ha commentato il correlatore della commissione per il mercato interno Brando Benifei.

Come anticipato, manca ancora la verifica finale di giuristi e linguisti e l’approvazione formale del Consiglio prima dell’ufficializzazione, che concluderà l’iter di questa legge sull’intelligenza artificiale con la pubblicazione nella Gazzetta ufficiale dell’UE. Per l’entrata in vigore effettiva, serviranno altri 24 mesi da quest’ultima tappa, fuorché per i divieti relativi alle pratiche vietate, applicabili dopo altri sei mesi dall’entrata in vigore, per i codici di buone pratiche dopo 9 mesi, per le norme sui sistemi di IA per finalità generali e governance (dopo 12 mesi) e per i sistemi ad alto rischio (36 mesi).

Tutte le informazioni in merito sono reperibili nel documento della legge sull’intelligenza artificiale ma, per qualcosa di più conciso, considerate le 458 pagine di quest’ultimo, vi rimandiamo al comunicato stampa pubblicato oggi dal Parlamento europeo.

Leggi anche: Novità da Rabbit R1, il dispositivo tascabile IA che promette un mondo senza app e IT-Wallet approvato: patente e altri documenti integrati nell’app IO