L’intelligenza artificiale è destinata a rivoluzionare le nostre vite nei prossimi anni; questo ormai lo abbiamo capito già da un po’ di tempo. Ma come regolamentare questa tecnologia in rapida evoluzione per garantire che venga utilizzata in modo etico e responsabile? L’Unione Europea ha fatto un primo importante passo in questa direzione raggiungendo un accordo provvisorio sulla proposta di regolamento per l’intelligenza artificiale, il cosiddetto Artificial Intelligence Act.

L’Unione Europea fa un passo in avanti verso l’approvazione della legge europea sull’intelligenza artificiale

Dopo intense trattative svoltesi questa settimana a Bruxelles, i legislatori europei hanno raggiunto un’intesa di massima su quella che dovrebbe essere la prima legge organica al mondo per disciplinare lo sviluppo e l’utilizzo dell’intelligenza artificiale. L’Artificial Intelligence Act mira a creare un quadro normativo armonizzato tra gli stati membri dell’UE per classificare i diversi sistemi di AI in base al loro livello di rischio e stabilire regole chiare su come progettarli, documentarli e monitorarli.

Cosa prevede l’Artificial Intelligence Act

L’accordo raggiunto prevede obblighi specifici per i sistemi di intelligenza artificiale ad “alto impatto”, come valutazioni dei rischi, test per rilevare vulnerabilità, rapporti sugli incidenti e altro ancora. Viene introdotto anche il diritto dei cittadini di presentare reclami sui sistemi di AI e di ottenere spiegazioni sulle decisioni prese da sistemi ad “alto rischio” che impattano sui loro diritti. Previste anche pesanti sanzioni, fino a 7,5 milioni di euro o l’1,5% del fatturato globale, per le aziende che violano le regole imposte.

Come indicato nel comunicato stampa, l’AI Act vieta esplicitamente alcuni utilizzi considerati troppo rischiosi e lesivi dei diritti fondamentali, come i sistemi di riconoscimento facciale che analizzano immagini di telecamere di sorveglianza o quelli che identificano persone in base a caratteristiche sensibili come origine razziale, orientamento sessuale o opinioni politiche. Vietate anche le applicazioni che manipolano i comportamenti delle persone aggirando la loro libera volontà o che sfruttano le loro vulnerabilità.

Per i sistemi biometrici di sorveglianza in tempo reale, come il riconoscimento facciale, sono previste deroghe limitate per forze dell’ordine, militari e servizi di intelligence, anche se alcuni europarlamentari spingono per il divieto assoluto. Stesso discorso per i controversi modelli di AI generativa come ChatGPT dell’azienda OpenAI, con alcuni paesi che premono per l’autoregolamentazione da parte delle aziende tecnologiche.

Quali saranno i prossimi sviluppi

La proposta originale dell’AI Act risale al 2021, ben prima dell’esplosione di chatbot evoluti come ChatGPT e strumenti di intelligenza artificiale generativa che stanno rivoluzionando il settore. Per questo il testo ha subito numerose revisioni ed è ancora oggetto di trattative su alcuni punti critici. Dopo l’accordo provvisorio di venerdì, saranno necessari ulteriori negoziati e votazioni da parte del Parlamento Europeo prima che l’AI Act possa entrare definitivamente in vigore, il che difficilmente accadrà prima del 2025.

L’intesa raggiunta segna comunque una tappa fondamentale verso una regolamentazione lungimirante dell’intelligenza artificiale in Europa, che potrebbe fare da modello per altri continenti e Paesi sparsi per tutto il mondo. Ora sarà importante finalizzare i dettagli mancanti, tenendo sempre in seria considerazione la tutela dei diritti dei cittadini senza però soffocare il progresso o danneggiare la competitività europea nel settore dell’AI. Non mancheranno ulteriori sviluppi nel corso dei prossimi mesi, quindi se interessati al tema vi consigliamo di restare sintonizzati su queste pagine.

Potrebbero interessarti anche: Elon Musk spinge su xAI, a caccia di soldi per Grok e l’intelligenza artificiale e Un team di ricercatori ha scovato una grave falla di sicurezza di ChatGPT