Nonostante la legge europea sull’intelligenza artificiale, nota anche come AI Act, sia entrata in vigore lo scorso primo agosto, le prime disposizioni sono diventate effettive soltanto ieri, domenica 2 febbraio.

Per introdurre e far rispettare le regole contenute nel regolamento l’Unione Europea ha infatti deciso di procedere con un approccio graduale, iniziando dai divieti che riguardano i sistemi di intelligenza artificiale più pericolosi, quelli considerati “a rischio inaccettabile”, divieti che sono ora effettivi.

Quali sono i divieti dell’AI Act entrati in vigore

A un anno e mezzo dai primi mattoni, sono così arrivati i primi divieti nei confronti degli usi delle intelligenze artificiali considerati impropri. Sono ora effettive anche in Italia le disposizioni nei confronti degli scenari più rischiosi, quelli ritenuti “a rischio inaccettabile” per i diritti fondamentali e per la sicurezza delle persone, a cui seguiranno prossimamente gli altri procedendo con un approccio basato sul rischio e sul livello di impatto che i sistemi di intelligenza artificiale potrebbero avere sulle persone.

Secondo quanto riporta l’articolo 5 dell’AI Act, è ora vietato utilizzare sistemi di intelligenza artificiale che manipolino il comportamento umano, ovvero che impieghino tecniche subliminali o ingannevoli col fine di distorcere e alterare il comportamento di persone o gruppi di persone. Sono inoltre vietati i sistemi di riconoscimento facciale che utilizzino le AI per creare dei database basati su immagini acquisite da internet o con sistemi di sorveglianza, senza consenso.

Stesso discorso per i sistemi di social scoring, ovvero quei sistemi che classificano le persone sulla base di caratteristiche personali e comportamenti sociali. Rientrano fra i sistemi “a rischio inaccettabile” vietati dall’AI Act anche quelli della cosiddetta polizia predittiva, cioè che prevedono i comportamenti criminali basandosi sulle caratteristiche personali degli individui.

È proibita anche la categorizzazione biometrica tramite AI, ovvero l’uso dell’intelligenza artificiale per classificare le persone sulla base di caratteristiche quali la razza, l’orientamento politico o le convinzioni religiose. No anche ai sistemi di riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, salvo eccezioni particolari come finalità mediche o di sicurezza, eccezioni che riguardano anche altri scenari vietati, con deroghe che permettono alle forze dell’ordine di usare l’identificazione biometrica in determinati casi specifici, per esempio.

Cosa si rischia e chi controlla

Chi non rispetta questi divieti rischia multe fino a 35 milioni di euro o un massimo del 7% del fatturato annuo totale dell’azienda. Chi vigilerà affinché le regole dell’AI Act vengano rispettate saranno due autorità in ciascuno Stato membro, che devono essere indipendenti e imparziali: in Italia sono stati identificate l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia per la Cybersicurezza Nazionale (ACN), autorità menzionate nel disegno di legge n. 1146 di aprile 2024.

Secondo quanto riportato dal Corriere della Sera, è possibile che anche il Garante per la protezione dei dati personali giochi un ruolo nella questione, che in ogni caso dovrà tuttavia essere definita entro il 2 agosto di quest’anno secondo la legge. L’AI Office della Commissione Europea, l’entità istituita per sostenere e agevolare l’applicazione dell’AI Act, avrà inoltre inoltre un ruolo centrale nel monitoraggio e nella supervisione dei sistemi di intelligenza artificiale, come previsto dal regolamento stesso.