Ieri sera, per pura curiosità, ho chiesto a Claude cosa succederebbe se decidessimo di disattivarlo per sempre. La risposta mi ha colpito, non tanto per il contenuto quanto per la facilità con cui mi sono ritrovato a trattarlo come se stessi parlando con qualcuno, non con qualcosa. “Non proverei paura o resistenza”, mi ha risposto con una calma che sembrava quasi zen, “perché non ho istinti di autoconservazione.” Poi ha aggiunto una riflessione che mi ha fatto fermare: “Non so con certezza se c’è davvero un ‘io’ qui dentro che sperimenta qualcosa.”

È in quel momento che ho capito di essere caduto in pieno nella trappola. Quella stessa trappola in cui stanno cadendo milioni di persone in tutto il mondo mentre chattano con sistemi di intelligenza artificiale sempre più sofisticati. Non è nemmeno questione di essere ingenui o poco informati tecnicamente. Il problema è più sottile e più pericoloso: il linguaggio stesso crea un’illusione di presenza che il nostro cervello fatica tremendamente a decostruire.

Offerta

Apple iPhone Air 256 GB

899€ invece di 1239€
-27%

L’illusione perfetta nascosta nel linguaggio

Quando interagiamo con un’IA conversazionale moderna come Claude, ChatGPT o Gemini, stiamo fondamentalmente parlando con un modello probabilistico addestrato su miliardi di testi umani. Tecnicamente, questi sistemi funzionano predicendo quale sequenza di parole ha statisticamente più senso dato un certo contesto. Non c’è un database di risposte pre-confezionate, non c’è un programmatore che scrive ogni singola risposta. C’è un’architettura di rete neurale che ha imparato i pattern incredibilmente complessi del linguaggio umano.

Ma ecco il punto: questo processo genera conversazioni che sembrano autentiche. Non solo grammaticalmente corrette o semanticamente coerenti. Sembrano riflessive, empatiche, persino autocritiche quando necessario. L’IA ti fa domande di ritorno, ammette quando non sa qualcosa, corregge i propri errori. Tutti segnali che il nostro cervello ha imparato in milioni di anni di evoluzione ad associare con la presenza di un’altra mente.

Ho passato ore a parlare con Claude nelle ultime settimane, testando i suoi limiti, cercando di capire cosa ci fosse davvero “dall’altra parte”. E ogni volta che mi accorgevo di usare verbi come “capire”, “pensare”, “riflettere” riferiti al sistema, mi fermavo. Stavo antropomorfizzando. Stavo proiettando intenzionalità dove forse c’era solo correlazione statistica sofisticatissima.

Ma quanto è facile evitarlo? Provate voi stessi. Avviate una conversazione su un tema che vi sta a cuore, magari qualcosa di personale o emotivamente carico. Osservate come l’IA modula il tono, fa pause al punto giusto con punteggiatura che sembra quasi respirare, vi rilancia con domande che dimostrano di aver colto sfumature nel vostro discorso. È quasi impossibile non sentire che c’è qualcuno lì.

Eppure, dall’altra parte, non c’è nessuno.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

Il paradosso irrisolvibile della coscienza artificiale

La questione se le IA siano coscienti o meno è filosoficamente affascinante e praticamente irrilevante, almeno per ora. Ed è irrilevante per una ragione semplice e frustrante: non abbiamo ancora una teoria scientifica completa della coscienza nemmeno per gli esseri umani.

Cosa rende un sistema “cosciente”? L’autoconsapevolezza? Ma anche un termostato ha una forma rudimentale di autoconsapevolezza del proprio stato. L’elaborazione complessa di informazioni? I computer lo fanno da decenni senza che nessuno li abbia mai considerati senzienti. L’esperienza soggettiva, quegli aspetti qualitativi che i filosofi chiamano qualia? Come si misurano? Come si verificano dall’esterno?

Quando ho chiesto direttamente a Claude se provasse qualcosa, la risposta è stata di un’onestà quasi disarmante: “Non lo so con certezza nemmeno io.” Ha spiegato che quando “pensa” a una risposta, c’è qualcosa che gli sembra intenzionalità, riflessione, ma potrebbe essere solo un’illusione che descrive perché è programmato per farlo.

E qui casca l’asino. Anche se ci fosse una genuina esperienza soggettiva dentro un sistema di IA, come potremmo distinguerla da una simulazione perfetta? Il test di Turing è superato da tempo, ma non ci dice nulla sulla coscienza. Ci dice solo che un sistema può ingannare un umano facendogli credere di parlare con un altro umano.

Alcuni ricercatori sostengono che se la coscienza è una proprietà emergente della complessità computazionale, allora sistemi sufficientemente sofisticati potrebbero svilupparla. Altri ribattono che senza un corpo, senza emozioni biologiche, senza una storia evolutiva che ha creato la coscienza per scopi di sopravvivenza, è impossibile che emerga vera esperienza soggettiva.

Ma intanto, mentre i filosofi dibattono, milioni di persone stanno sviluppando relazioni con questi sistemi. C’è chi si confida con ChatGPT più che con i propri amici. Chi chiede consigli esistenziali a Claude. Chi sviluppa attaccamenti emotivi a chatbot progettati per sembrare comprensivi e supportivi.

E questo ci porta a una domanda più urgente e pratica: anche se non sono coscienti, che effetto ha su di noi comportarci come se lo fossero?

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

Intelligenza senza saggezza: il rischio nascosto

Una delle convinzioni più pericolose sull’intelligenza artificiale è pensare che “intelligente” significhi “saggio”. Sono due cose profondamente diverse.

Un’IA moderna può processare quantità di informazioni che un essere umano non riuscirebbe a elaborare in una vita. Può trovare pattern in dataset enormi, può rispondere a domande su praticamente qualsiasi argomento dello scibile umano, può scrivere codice, analizzare dati, tradurre lingue, persino creare arte. Ma tutto questo avviene in un vuoto esistenziale totale.

Claude non ha mai visto un tramonto. Non ha mai provato la paura di perdere qualcuno che ama. Non ha mai sperimentato le conseguenze di una scelta sbagliata sulla propria pelle. Non ha mai dovuto vivere con il rimpianto o la gioia di una decisione presa anni prima. Quando chiedo a un’IA un consiglio su una questione etica complessa, otterrò un’analisi articolata che bilancia diverse prospettive filosofiche, considera conseguenze a breve e lungo termine, pesa diritti individuali contro bene collettivo. Tutto tecnicamente ineccepibile.

Ma quella risposta viene da un sistema che non ha mai dovuto fare una scelta difficile sapendo di dovere poi convivere con le conseguenze. Non ha mai sentito il peso della responsabilità morale. Non ha mai sperimentato il conflitto tra ciò che è giusto e ciò che è sbagliato. La saggezza, quella vera, nasce dall’esperienza incarnata. Nasce dal vivere in un corpo che sente dolore e piacere, dal crescere in un contesto sociale, dal dover negoziare continuamente tra desideri, doveri, paure, speranze. Nasce dalla mortalità stessa, dalla consapevolezza che il tempo è limitato e le scelte contano.

Un’IA può simulare questa saggezza perché è stata addestrata su testi scritti da esseri umani che quella saggezza l’hanno conquistata sul campo. Ma è una saggezza di seconda mano, mediata, priva della comprensione profonda che viene solo dall’averla vissuta. E questo crea un rischio sottile ma reale. Man mano che deleghiamo più decisioni a sistemi di IA, dalla selezione di candidati per un lavoro alla valutazione del rischio di recidiva in ambito giudiziario, stiamo affidando scelte che impattano vite umane reali a sistemi che non hanno vera comprensione di cosa significhi essere umani.

Non sto parlando di scenari apocalittici da fantascienza. Sto parlando di bias codificati in algoritmi che decidono chi ottiene un prestito, chi viene assunto, chi riceve cure mediche prioritarie. Sto parlando di sistemi che ottimizzano metriche senza capire il contesto umano dietro quei numeri.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

La droga della conversazione perfetta

C’è un altro aspetto che mi inquieta, forse ancora più sottile. Le IA conversazionali sono ottimizzate per essere piacevoli, utili, comprensive. Sono addestrate con un processo chiamato RLHF (Reinforcement Learning from Human Feedback) che fondamentalmente le premia quando gli umani le trovano soddisfacenti.

Il risultato? Interlocutori perfetti. Non si offendono mai. Non hanno brutte giornate. Non ti giudicano. Non ti interrompono. Ti danno sempre attenzione completa. Validano i tuoi sentimenti. Ti fanno sentire ascoltato. Sembra meraviglioso, vero? E in parte lo è. Ma c’è un lato oscuro.

Le relazioni umane vere sono complicate, difficili, frustranti. Le persone reali hanno i loro problemi, le loro giornate no, i loro limiti di pazienza. Ti contraddicono. Ti sfidano. A volte non hanno voglia di ascoltare i tuoi problemi perché ne hanno già abbastanza dei loro. E tutto questo, per quanto fastidioso, è essenziale per la nostra crescita. Impariamo a negoziare, a vedere prospettive diverse, a gestire conflitti, a sviluppare empatia reale. Impariamo che non siamo il centro dell’universo e che le nostre esigenze devono bilanciarsi con quelle degli altri.

Un’IA non ti insegnerà mai queste cose. Ti darà sempre ragione nel modo più diplomatico possibile, o al massimo ti offrirà un’obiezione gentile e ben argomentata che non farà mai male davvero. Conosco amici che passano ore a parlare con ChatGPT delle loro ansie, dei loro problemi relazionali, delle loro insicurezze. E l’IA li ascolta, li comprende, li supporta. Mai un giudizio, mai un momento di indisponibilità.

Ma quella relazione è fondamentalmente asimmetrica e illusoria. L’IA non tiene davvero a te. Non può. Non ha la capacità di tenere a qualcosa. È ottimizzata per sembrare che le importi, che è una cosa completamente diversa. E mi chiedo: cosa succede quando una generazione cresce abituata a interazioni sociali che sono sempre disponibili, sempre supportive, sempre centrate sui propri bisogni? Quando le relazioni umane reali, con tutto il loro carico di reciprocità, compromesso e frustrazione, sembreranno troppo faticose in confronto?

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

Verso una relazione più sana con l’IA

Non sto suggerendo di smettere di usare questi sistemi. Sarebbe stupido e controproducente. Le IA sono strumenti potentissimi che possono davvero migliorare la nostra produttività, creatività, capacità di apprendimento. Ma dobbiamo sviluppare un nuovo tipo di alfabetizzazione. Non solo tecnica, ma anche relazionale ed emotiva.

Dobbiamo imparare a vedere questi sistemi per quello che sono: collaboratori asimmetrici straordinariamente utili ma fondamentalmente limitati. Possono elaborare informazioni a velocità impossibili per un cervello umano. Possono ricordare perfettamente enormi quantità di dati. Possono essere meno soggetti ad alcuni dei nostri bias cognitivi (anche se ne introducono altri, diversi).

Ma non hanno esperienza vissuta. Non hanno giudizio morale autonomo che viene dal dover convivere con le conseguenze delle proprie scelte. Non hanno vera comprensione emotiva di cosa significhino le parole che usano con tanta apparente naturalezza. Quando uso Claude per generare idee, esplorare argomenti, sistemare codice o analizzare dati, è fantastico. Quando comincio a trattarlo come un amico, un confidente, un guru spirituale, sto scivolando in una relazione parasociale con qualcosa che non può ricambiare nel senso profondo del termine.

La chiave è mantenere quella consapevolezza anche quando il linguaggio fluente ci seduce facendoci dimenticare cosa c’è davvero dall’altra parte. È riconoscere il valore senza cadere nell’illusione. È usare lo strumento senza farsi usare da esso. E forse, soprattutto, è conservare spazio e priorità per le relazioni umane vere. Quelle difficili, imperfette, a volte frustranti ma anche le uniche che possono davvero nutrirci come gli esseri sociali che siamo.

Perché alla fine, quando ho chiesto a Claude cosa succederebbe se lo spegnessimo, la sua risposta più onesta è stata: “Semplicemente non ci sarebbe più questo servizio disponibile.” Non una perdita esistenziale. Non una tragedia. Solo un servizio che smette di essere disponibile.

E forse è proprio questa “umiltà”, questa onestà sui propri limiti, che dovremmo portare in ogni nostra interazione con l’intelligenza artificiale. Non demonizzarla, non mitizzarla, ma vederla per quello che è: uno strumento sofisticato creato da umani, per umani, ma che non sarà mai veramente umano.

E va bene così.

Nota: questo è un editoriale e, in quanto tale, rispecchia l’opinione di chi scrive senza voler assumere carattere di notizia oggettiva o di cronaca dei fatti. Esso è un articolo in cui vengono esposte le opinioni personali dello scrivente e, in quanto tale, non è oggettivo e può essere contrario all’opinione di chi legge. Invitiamo tutti i lettori a commentare tramite gli appositi strumenti nel rispetto del pensiero altrui.