Viviamo immersi in una costellazione di dati che produciamo senza quasi accorgercene. Ogni volta che consultiamo un sito, accendiamo lo smartphone o indossiamo un dispositivo connesso, lasciamo una scia di informazioni che ci descrivono con sorprendente precisione. Non si tratta solo di numeri astratti: i dati sono frammenti della nostra identità, tessere di un mosaico che algoritmi e piattaforme ricompongono per anticipare i nostri comportamenti, orientare le nostre scelte, talvolta perfino ridefinire la nostra immagine sociale.

Questa condizione solleva interrogativi filosofici ed etici cruciali. Siamo ancora soggetti liberi o progressivamente ridotti a oggetti di calcolo statistico? I dati che cediamo – spesso con un consenso formale ma fragile – diventano strumenti di potere economico e politico, generando nuove forme di asimmetria tra individui e grandi attori globali.

Shoshana Zuboff, in The Age of Surveillance Capitalism, ha mostrato come i dati non siano più semplici sottoprodotti delle nostre attività, ma la materia prima di un’economia che trasforma ogni gesto in informazione monetizzabile. L’elemento decisivo è che questi dati non rimangono isolati: correlati, combinati, normalizzati, danno vita a profili che orientano l’accesso a un credito, la selezione di un lavoro o la possibilità di essere identificati come “a rischio” in campo sanitario.

La statistica, disciplina spesso percepita come neutra, diventa qui un’arma a doppio taglio. Da un lato consente di comprendere tendenze collettive e migliorare processi decisionali; dall’altro rischia di ridurre la persona a un numero, perdendo di vista la complessità irriducibile dell’esperienza umana.

Profilati, decifrati, ridefiniti: l’AI ci conosce meglio di noi stessi ed è un problema 1

La maggior parte delle informazioni che ci riguardano non viene fornita consapevolmente. Tecniche di scraping automatizzato e sistemi di tracciamento comportamentale operano sotto la soglia della nostra percezione. Il consenso che diamo spuntando una casella è, come ha osservato Luciano Floridi, “debole”: non tiene conto dell’asimmetria informativa tra chi produce i dati e chi li sfrutta.

La filosofia politica qui ci interroga: siamo cittadini digitali, dotati di diritti, o semplici consumatori di servizi, pronti a barattare la nostra privacy in cambio di comodità? La risposta non è scontata. La governance dei dati richiede una riformulazione del contratto sociale, in cui trasparenza e responsabilità siano valori fondativi, non optional.

Uno dei rischi più insidiosi è l’illusione che i dati parlino da soli. In realtà, essi riflettono le modalità con cui sono stati raccolti e selezionati. La sociologa Lisa Messeri e la neuroscienziata Molly Crockett hanno parlato di illusion of objectivity: la tendenza a credere che un algoritmo, proprio perché basato su calcoli statistici, sia neutrale e universale. In verità, i dati sono impregnati dei pregiudizi, delle omissioni e delle asimmetrie del contesto da cui provengono.

All’illusione di oggettività si aggiunge l’illusione di profondità: affidarsi a sistemi di intelligenza artificiale ci induce a pensare di avere una comprensione più ampia di fenomeni complessi, quando in realtà deleghiamo l’interpretazione a una “scatola nera” opaca. Il pericolo è che la fiducia cieca nei dati finisca per oscurare la consapevolezza critica, riducendo la nostra capacità di giudizio.

La fioritura umana come criterio etico per l’AI

In Europa, la Carta dei diritti fondamentali e il GDPR rappresentano tentativi di riequilibrio tra individui e piattaforme. Ma la rapidità con cui si trasformano i sistemi di raccolta e analisi rende evidente la necessità di un nuovo paradigma. La Montreal Declaration for a Responsible AI ha insistito sulla centralità della dignità umana e sulla necessità che lo sviluppo tecnologico sia orientato a fini collettivi.

Qui si inserisce la prospettiva di Bernd Carsten Stahl, che propone la nozione di human flourishing: la fioritura umana come criterio etico guida. Non si tratta solo di proteggere i dati, ma di chiederci se e come la loro raccolta e il loro utilizzo contribuiscano a una vita più ricca, autonoma e significativa. Un’AI etica non si limita a evitare il danno: deve promuovere attivamente il benessere.

Ogni modello statistico implica una scelta: cosa includere, cosa escludere, quale fenomeno misurare e come interpretarlo. Questo significa che la scienza dei dati è intrinsecamente normativa. Floridi parla di infosfera: uno spazio in cui la distinzione tra online e offline svanisce, perché i dati digitali sono ormai parte integrante della nostra stessa esistenza.

Profilati, decifrati, ridefiniti: l’AI ci conosce meglio di noi stessi ed è un problema 9

Pensare in termini di ecosistema, come suggerisce Stahl, significa riconoscere che i dati non appartengono solo al singolo individuo, ma costituiscono una risorsa condivisa che va gestita in modo responsabile. Le piattaforme che controllano questi flussi non sono semplici attori economici, ma nuove istituzioni con un potere paragonabile a quello degli Stati.

“I dati siamo noi, ma troppo spesso non lo sappiamo.” Questa frase riassume l’urgenza del dibattito etico. Non si tratta di demonizzare la tecnologia, ma di comprenderne le implicazioni profonde. I dati non sono meri strumenti tecnici: sono frammenti della nostra identità collettiva, la materia prima con cui si costruisce il potere nell’era digitale.

Il vero nodo è politico e filosofico: accetteremo di essere trattati come “unità statistiche” governate da logiche di mercato, o sceglieremo di rivendicare una cittadinanza digitale fondata sulla trasparenza, la responsabilità e la dignità? L’intelligenza artificiale, alimentata dai nostri dati, non deve trasformarsi in un nuovo Leviatano invisibile: deve diventare uno strumento di emancipazione, capace di promuovere non solo efficienza, ma umanità.

AI, etica e futuro digitale: una rubrica di Giovanni Di Trapani

L’intelligenza artificiale è ormai ovunque: nei motori di ricerca, nei social, nei software che usiamo per lavorare, curarci, decidere. Ma siamo davvero pronti a convivere con algoritmi che imparano, decidono, ci osservano?

Questa rubrica nasce per esplorare, con uno sguardo critico e accessibile, le sfide etiche e sociali dell’AI: dalle discriminazioni nei dati al lavoro che cambia, dalla creatività generativa alla privacy, fino al ruolo dell’umano in un mondo sempre più automatizzato.
Ogni settimana, un breve approfondimento per capire meglio cosa c’è dietro la tecnologia che ci cambia. E per iniziare a domandarci, tutti: dove vogliamo andare?

Puoi seguire la rubrica mettendo fra i preferiti la pagina che raccoglierà le varie puntate: Etica AI, oppure se utilizzi un aggregatore di notizie aggiungendo il Feed RSS di TuttoTech o più nello specifico il Feed RSS della rubrica Etica e AI.

Giovanni Di Trapani, ricercatore del CNR, economista, statitstico ed autore. Si occupa di innovazione, governance pubblica e futuro digitale. Gestisce il sito AIgnosi.it