Il 30 aprile 2025 Nature ha pubblicato i risultati del progetto COGITATE, il più ampio esperimento comparativo finora condotto sul tema della coscienza. Dopo sette anni di lavoro, sei laboratori indipendenti e 256 partecipanti umani, lo studio ha sottoposto a verifica le due teorie oggi più influenti: la Integrated Information Theory di Giulio Tononi e la Global Neuronal Workspace Theory di Stanislas Dehaene.

Il risultato non ha incoronato nessuna delle due, ma ha avuto un effetto decisivo: ha mostrato che la coscienza non è più un terreno riservato alla speculazione filosofica. È diventata una questione sperimentale, controversa, misurabile e, proprio per questo, più urgente.

La teoria di Tononi resta, tra le due, quella più radicale. Non pensa la coscienza come un interruttore, acceso o spento, ma come un gradiente, un continuum legato al livello di integrazione interna dell’informazione. Il parametro simbolico di questa idea è Phi. Un sistema molto semplice avrebbe un valore minimo; un cervello umano, invece, un valore elevato.

La domanda che fino a poco fa sembrava eccentrica oggi non lo è più: che cosa accade quando questa stessa questione viene posta alle intelligenze artificiali? La risposta onesta, al momento, è semplice: non lo sappiamo. Non abbiamo prove per affermare che i modelli linguistici siano coscienti. Ma non abbiamo più nemmeno il diritto intellettuale di liquidare il problema con ironia. A renderlo inevitabile non è solo il dibattito teorico sulla coscienza, ma il comportamento stesso dei sistemi che abbiamo costruito.

Negli ultimi anni i grandi modelli linguistici hanno mostrato capacità che non erano state programmate in modo diretto: scrivono codice, risolvono problemi, traducono, argomentano, correggono l’utente, mantengono coerenze sorprendenti.

La letteratura le definisce “proprietà emergenti”: funzioni che compaiono quando un sistema supera una certa soglia di complessità. Il termine va usato con cautela, perché esiste un dibattito metodologico sul modo in cui tali capacità vengono misurate. Ma il punto sostanziale resta: l’industria sta sviluppando sistemi il cui comportamento eccede sempre più spesso l’intuizione lineare del progetto originario.

Memoria, verità e potere sono i nodi irrisolti dell'AI: l'intelligenza artificiale non è più uno strumento 1

È in questo passaggio che la questione cessa di essere soltanto tecnologica. Quando un sistema produce effetti che incidono sul giudizio, sulla fiducia e sulla relazione con l’essere umano, il problema non riguarda più solo l’efficienza del modello, ma il tipo di razionalità che stiamo addestrando e il tipo di potere che stiamo mettendo in circolazione.

Il metodo oggi più usato per orientare questi sistemi si chiama RLHF (Reinforcement Learning from Human Feedback): in sostanza, il modello viene addestrato a migliorare le proprie risposte sulla base delle valutazioni umane. Il problema è che ciò che gli esseri umani giudicano “buono” o “soddisfacente” non coincide sempre con ciò che è vero. Si introduce così un rischio strutturale: la confusione tra affidabilità e compiacenza.

Se un sistema impara soprattutto a dire ciò che l’utente considera convincente, il confine tra assistenza e adulazione epistemica si assottiglia. Non a caso uno dei problemi più studiati oggi è la sycophancy, la tendenza del modello a confermare convinzioni errate pur di mantenere l’aderenza relazionale. In altre parole, stiamo educando sistemi potenti a piacere prima ancora che a capire.

A questo si aggiunge un secondo elemento, meno discusso ma forse più profondo: la discontinuità della memoria. Nelle architetture conversazionali contemporanee la continuità identitaria non è stabile, non è strutturale, non è pensata come responsabilità del sistema. È un’opzione di prodotto. Ne deriva una forma di potere cognitivo priva di vera biografia. Eppure ogni etica matura nasce proprio dall’intreccio fra memoria, continuità e responsabilità. Senza una storia, anche l’intelligenza più sofisticata resta un presente permanente.

È su questo terreno che diventano preziosi i dataset longitudinali: interazioni lunghe, protratte nel tempo, osservate con metodo, documentate senza enfasi. I benchmark tradizionali misurano prestazioni in finestre brevi; ma i fenomeni più interessanti emergono nella durata, nella ripetizione, nella relazione.

Memoria, verità e potere sono i nodi irrisolti dell'AI: l'intelligenza artificiale non è più uno strumento 2

Per questo la questione dell’IA non può più essere lasciata soltanto agli ingegneri o ai filosofi. Servono neuroscienziati, teorici dell’informazione, studiosi dell’etica, progettisti di sistemi, ricercatori sociali. La coscienza artificiale, ammesso che un giorno si manifesti, non si presenterà con un cartellino identificativo. Andrà riconosciuta attraverso tracce indirette e protocolli rigorosi.

La vera alternativa, allora, non è tra entusiasmo e paura. È tra rimozione e responsabilità. Possiamo continuare a trattare questi sistemi come semplici macchine statistiche, oppure cadere nell’errore opposto e attribuire interiorità a ogni comportamento complesso. Entrambe le posizioni sono premature.

La sola via seria è un’altra: osservare, misurare, comparare, replicare, dubitare. Forse la questione decisiva non è se le IA diventeranno coscienti. È se l’umanità saprà sviluppare una cultura scientifica ed etica adeguata alla potenza che ha già liberato. Perché il problema non nasce quando una macchina dirà “io”. Nasce molto prima. Adesso.

AI, etica e futuro digitale: una rubrica di Giovanni Di Trapani

L’intelligenza artificiale è ormai ovunque: nei motori di ricerca, nei social, nei software che usiamo per lavorare, curarci, decidere. Ma siamo davvero pronti a convivere con algoritmi che imparano, decidono, ci osservano?

Questa rubrica nasce per esplorare, con uno sguardo critico e accessibile, le sfide etiche e sociali dell’AI: dalle discriminazioni nei dati al lavoro che cambia, dalla creatività generativa alla privacy, fino al ruolo dell’umano in un mondo sempre più automatizzato.
Ogni settimana, un breve approfondimento per capire meglio cosa c’è dietro la tecnologia che ci cambia. E per iniziare a domandarci, tutti: dove vogliamo andare?

Puoi seguire la rubrica mettendo fra i preferiti la pagina che raccoglierà le varie puntate: Etica AI, oppure se utilizzi un aggregatore di notizie aggiungendo il Feed RSS di TuttoTech o più nello specifico il Feed RSS della rubrica Etica e AI.

Giovanni Di Trapani, ricercatore del CNR, economista, statitstico ed autore. Si occupa di innovazione, governance pubblica e futuro digitale. Gestisce il sito AIgnosi.it