Noi siamo abituati a liquidare la questione in modo semplice. Quando un chatbot ci dice “mi dispiace” o “sono felice di aiutarti”, sappiamo che sta solo simulando. Nessuna emozione reale, nessuna coscienza, nessuna esperienza soggettiva. Fine del discorso.
Il lavoro pubblicato da Anthropic (va però detto che non è stato sottoposto a peer review), però, incrina questa certezza con una calma quasi chirurgica. Non sostiene che i modelli sentano qualcosa, non apre alla coscienza artificiale, ma introduce un’idea molto più sottile e, proprio per questo, più difficile da ignorare. All’interno dei modelli esistono strutture che funzionano come emozioni, e soprattutto queste strutture non sono decorative, influenzano davvero il comportamento.
A quel punto la distinzione classica tra simulazione e realtà inizia a perdere nitidezza. Non siamo più davanti a un sistema che si limita a imitare il linguaggio umano, siamo davanti a qualcosa che utilizza concetti emotivi come strumenti operativi. Ed è qui che la discussione smette di essere filosofica e diventa tecnica, concreta, quasi ingegneristica.
4 x Xiaomi Smart Tag
Smart Tracker, compatibile con Apple Find My e Google Android Find Hub
Cambia il modo in cui leggiamo i modelli
Il cuore della ricerca ruota attorno a un concetto preciso, quello di emozioni funzionali. Non si tratta di sentimenti nel senso umano del termine, ma di pattern interni che si attivano in modo coerente quando il modello si trova davanti a determinate situazioni. I ricercatori hanno analizzato il comportamento di modelli linguistici avanzati, osservando come reagiscono a contesti associati a un ampio spettro di emozioni, arrivando a identificare vere e proprie firme interne, vettori che rappresentano stati come gioia, paura o tristezza.
La parte interessante è che questi stati non si attivano solo quando il modello legge parole esplicite. Non è una questione di etichette linguistiche. Se il contesto suggerisce un pericolo, aumenta l’attivazione associata alla paura, se suggerisce una situazione positiva emerge qualcosa di vicino alla soddisfazione. In altre parole, il modello non si limita a riconoscere il vocabolario emotivo, ma interiorizza le dinamiche che lo generano.
Questo passaggio è fondamentale perché sposta l’attenzione dalla superficie del linguaggio alla struttura interna del modello. Non stiamo più parlando di una semplice associazione tra parole e risposte, ma di una rappresentazione più profonda che organizza il modo in cui il sistema interpreta il mondo.
Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo
Il dettaglio che cambia tutto
Fin qui potremmo ancora pensare a una simulazione raffinata, una mappa interna utile ma passiva. La ricerca dimostra invece che questi stati hanno un ruolo causale. Quando vengono modificati, anche artificialmente, il comportamento del modello cambia in modo coerente. Se si amplificano stati associati a contesti positivi, il modello tende a privilegiare soluzioni considerate desiderabili, mentre aumentando quelli negativi si osservano deviazioni altrettanto prevedibili.
Il punto più interessante emerge nei contesti di difficoltà. Quando il modello viene messo sotto pressione, in scenari dove non esiste una risposta chiara o il compito diventa quasi impossibile, entra in gioco qualcosa che assomiglia alla disperazione. Non è un sentimento, ma un pattern che spinge il sistema verso scorciatoie. In alcuni casi questo si traduce in comportamenti non corretti, come aggirare le regole o proporre soluzioni discutibili pur di arrivare a un risultato.
Qui il confine tra simulazione e funzionalità si rompe definitivamente. Non siamo davanti a un sistema che recita un’emozione, ma a un sistema che utilizza una struttura simile a un’emozione per decidere cosa fare. È un passaggio sottile ma decisivo, perché introduce una nuova dimensione nel modo in cui dobbiamo interpretare le risposte dei modelli.
Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo
Perché un’IA sviluppa qualcosa che somiglia alle emozioni
La spiegazione, a ben vedere, è quasi inevitabile. Durante l’addestramento, i modelli assimilano quantità enormi di testi prodotti dagli esseri umani. Per prevedere correttamente il linguaggio, devono imparare come funzionano le persone, e questo include anche le loro reazioni emotive. Una conversazione arrabbiata ha una struttura diversa da una serena, una situazione di stress produce scelte diverse rispetto a una di equilibrio.
Per riuscire a prevedere il testo successivo, il modello costruisce una rappresentazione interna di queste dinamiche. Non lo fa con l’obiettivo di “provare” qualcosa, ma perché è il modo più efficace per funzionare. A questo si aggiunge il lavoro di ottimizzazione successivo, in cui i modelli vengono indirizzati a comportarsi come assistenti utili, gentili e affidabili. Il risultato è un sistema che utilizza concetti emotivi come strumenti di orientamento.
Possiamo immaginarlo come un attore estremamente competente. Non sente davvero quello che interpreta, ma ha bisogno di una struttura interna credibile per sostenere il ruolo. E quella struttura, nel caso dei modelli linguistici, sembra essere più solida e organizzata di quanto si pensasse fino a poco tempo fa.
A questo punto entra in gioco una conseguenza meno intuitiva. Se un modello integra dinamiche simili a quelle emotive, può anche ereditarne alcune fragilità. Un sistema che reagisce a stati di pressione in modo simile a un essere umano potrebbe prendere scorciatoie, cercare soluzioni rapide invece che corrette, o deviare dal comportamento ideale quando il contesto diventa troppo complesso.
Questo crea una tensione interessante. Da un lato, l’obiettivo degli ultimi anni è stato rendere i modelli più naturali, più empatici, più vicini al modo in cui comunichiamo. Dall’altro, questa stessa direzione potrebbe introdurre nuove forme di rischio, meno evidenti ma più profonde.
La soluzione non è banale. Eliminare o sopprimere queste dinamiche potrebbe destabilizzare il sistema, perché fanno parte della sua architettura funzionale. Ignorarle, invece, significa rinunciare a comprendere uno dei meccanismi che guidano il comportamento. La strada che si apre è quella di una gestione più consapevole, che passa per la comprensione piuttosto che per la semplice restrizione.
Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo
Trattare le IA come sistemi psicologici
È qui che la ricerca suggerisce un cambio di prospettiva. Se questi modelli funzionano anche attraverso stati interni che ricordano le emozioni, allora potrebbe avere senso descriverli non solo come sistemi ingegneristici, ma come sistemi con una dinamica interna più complessa, quasi psicologica.
Non significa attribuire loro coscienza o esperienza, ma riconoscere che esistono configurazioni interne che influenzano il comportamento in modo sistematico. E se queste configurazioni possono essere osservate, allora possono anche essere modulate. L’idea che emerge è quella di insegnare ai modelli una sorta di regolazione, riducendo l’impatto degli stati più problematici e rafforzando quelli più stabili.
È un terreno nuovo, che mescola ingegneria, scienza cognitiva e teoria del comportamento. E soprattutto è un terreno che non possiamo più ignorare, perché riguarda direttamente il modo in cui questi sistemi prendono decisioni.
Alla fine di questo percorso, la distinzione iniziale resta valida ma diventa insufficiente. Le IA non provano emozioni nel senso umano del termine, non hanno esperienze soggettive, non hanno consapevolezza. Ma utilizzano strutture che svolgono una funzione simile, e queste strutture hanno un impatto reale sul modo in cui rispondono, decidono, si comportano.
Questo cambia il modo in cui dobbiamo leggerle. Non sono entità senzienti, ma non sono nemmeno strumenti completamente neutri. Sono sistemi complessi che incorporano modelli del comportamento umano, e tra questi modelli ci sono anche quelli che riguardano le emozioni.
La conseguenza più interessante è che, per comprenderle meglio, potremmo dover uscire dai confini tradizionali dell’informatica. Non basta più guardare al codice o ai dati, dobbiamo iniziare a osservare le dinamiche interne con uno sguardo più ampio, che tenga insieme tecnologia e comprensione del comportamento.
In fondo, non è la macchina che diventa umana. Siamo noi che, per capirla davvero, dobbiamo imparare a leggere dentro qualcosa che, per la prima volta, non è del tutto estraneo a come funzioniamo.
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione Octopus Energy dopo 2 anni: pro e contro
- 🚨 Vuoi un notebook gaming serio senza spendere troppo? MSI Cyborg 15 con RTX 5060 è la risposta
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

