C’è una stazione affollata, telecamere che seguono i volti, un software che incrocia i tratti somatici con enormi database di immagini, e un algoritmo che assegna un punteggio: normale, sospetto, pericoloso. È uno scenario che non appartiene più alla fantascienza. Sistemi di sorveglianza basati sull’intelligenza artificiale sono già sperimentati in città, aeroporti, centri commerciali. E se da un lato promettono maggiore sicurezza, dall’altro sollevano una domanda cruciale: fino a che punto siamo disposti a sacrificare la libertà personale pur di sentirci protetti?
La promessa della sicurezza guidata da una macchina
Le tecnologie di riconoscimento facciale vengono presentate come alleate della lotta al terrorismo, strumenti per prevenire reati, mezzi per gestire emergenze sanitarie o grandi eventi. La retorica è rassicurante: più dati, più occhi digitali, più ordine. In fondo, chi non vorrebbe strade più sicure?
Lo stesso discorso è già emerso nell’articolo “L’algoritmo che decide per te”, dove la decisione automatizzata viene giustificata in nome dell’efficienza. Qui la logica si ripete: delegare il controllo alla macchina sembra una scorciatoia per ridurre rischi e incertezze. Ma dietro la promessa si nasconde un cambio di paradigma: non è più lo Stato a guardare i cittadini, è la macchina a osservare tutti, senza distinzione.
La sorveglianza algoritmica funziona in due direzioni. Da un lato, strumenti di facial recognition identificano e tracciano individui in tempo reale, incrociando le immagini con archivi di foto, documenti, profili social. Dall’altro, sistemi di predictive policing analizzano i dati e indicano quartieri, eventi o persone potenzialmente a rischio.
A questo si aggiunge la proliferazione di sensori, videocamere e dispositivi dell’Internet of Things: la città diventa un laboratorio permanente di raccolta dati. Come ricorda Bernd Carsten Stahl, non parliamo di una tecnologia isolata, ma di un vero ecosistema AI, dove dispositivi, algoritmi e attori sociali interagiscono in modi spesso imprevedibili.
Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo
I rischi per la privacy e le condizioni di libertà algoritmica
Il lato oscuro emerge subito. Se gli algoritmi sono addestrati su dati distorti, riproducono pregiudizi e discriminazioni: minoranze etniche più sorvegliate, quartieri popolari considerati più “pericolosi”, comportamenti ordinari classificati come “anomali”.
Lo spazio pubblico, tradizionalmente luogo di anonimato e libertà, rischia di trasformarsi in un set di controllo permanente. Ed ecco l’effetto chilling: sapere di essere osservati modifica i nostri comportamenti, limita le espressioni spontanee, induce autocensura. Non è un caso che in Cina i sistemi di sorveglianza biometrica siano già parte integrante della vita quotidiana, mentre negli Stati Uniti diversi progetti di predictive policing hanno sollevato proteste per gli effetti discriminatori. In Europa, la questione si intreccia con il diritto fondamentale alla privacy, minacciando il delicato equilibrio tra libertà e sicurezza.
Il vero salto non è tanto la sorveglianza, quanto la pretesa di prevedere. Gli algoritmi non si limitano a registrare ciò che accade: elaborano pattern, attribuiscono probabilità, anticipano comportamenti. Nasce così il rischio di un “sospetto permanente”.
Non conta più solo quello che hai fatto, ma quello che potresti fare. Intere comunità possono essere etichettate come “a rischio” sulla base di correlazioni statistiche. In questo, il legame con l’articolo “Quando l’AI discrimina” è evidente: il pregiudizio algoritmico non si limita a un’ingiustizia individuale, ma diventa un meccanismo di stigmatizzazione collettiva.
Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo
Cosa sta facendo l’Europa?
Il regolamento europeo sull’intelligenza artificiale, l’AI Act, ha riconosciuto la delicatezza del tema: prevede divieti sull’uso del riconoscimento facciale in spazi pubblici, ma con numerose eccezioni legate a terrorismo, ordine pubblico ed emergenze.
In altre parole, il confine non è netto. Nel nome della sicurezza, le maglie si allargano. È qui che il dilemma si fa stringente: possiamo davvero affidarci a strumenti di controllo così invasivi senza erodere progressivamente i diritti di cittadinanza?
Il rischio non è solo tecnologico, ma politico. Una società che accetta la logica del sospetto algoritmico si espone a una deriva autoritaria strisciante. L’identità del cittadino tende a coincidere con quella del sorvegliato, e il controllo sociale diventa il cemento di una società controllata. Già nell’articolo “Lavorare con (o contro) l’intelligenza artificiale” si è mostrato come la sorveglianza minacci la dignità nel mondo del lavoro; nello spazio pubblico, però, la posta in gioco è ancora più alta: riguarda la libertà di essere cittadini, senza filtri né etichette preventive.
Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo
C’è da prendere una decisione ed è importante
La questione non è se usare o meno la tecnologia, ma come e con quali limiti. È possibile immaginare un’AI che protegga senza controllare? Una sorveglianza che rispetti la privacy e i diritti fondamentali? La risposta dipende da scelte politiche e culturali, non da inevitabili automatismi. Per questo è urgente un dibattito pubblico: non possiamo delegare a ingegneri o governi la definizione dei confini della nostra libertà.
L’AI ci offre strumenti potenti, ma spetta a noi decidere se vogliamo una società più sicura o una società sicura perché libera. La domanda resta: quanta libertà siamo disposti a perdere per sentirci al sicuro?
L’intelligenza artificiale è ormai ovunque: nei motori di ricerca, nei social, nei software che usiamo per lavorare, curarci, decidere. Ma siamo davvero pronti a convivere con algoritmi che imparano, decidono, ci osservano?
Questa rubrica nasce per esplorare, con uno sguardo critico e accessibile, le sfide etiche e sociali dell’AI: dalle discriminazioni nei dati al lavoro che cambia, dalla creatività generativa alla privacy, fino al ruolo dell’umano in un mondo sempre più automatizzato.
Ogni settimana, un breve approfondimento per capire meglio cosa c’è dietro la tecnologia che ci cambia. E per iniziare a domandarci, tutti: dove vogliamo andare?
Puoi seguire la rubrica mettendo fra i preferiti la pagina che raccoglierà le varie puntate: Etica AI, oppure se utilizzi un aggregatore di notizie aggiungendo il Feed RSS di TuttoTech o più nello specifico il Feed RSS della rubrica Etica e AI.
Giovanni Di Trapani, ricercatore del CNR, economista, statitstico ed autore. Si occupa di innovazione, governance pubblica e futuro digitale. Gestisce il sito AIgnosi.it.
I nostri contenuti da non perdere:
- 🔝 Importante: iPhone 17 "a soli 599€"? È possibile con una promo Esselunga
- 💻 Scegli bene e punta al sodo: ecco le migliori offerte MSI notebook business Black Friday 2025
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo



