L’intelligenza artificiale (IA) sarebbe senziente e avrebbe già sviluppato le capacità tipiche di un bimbo di 8 anni, in particolare quelle di esprimere pensieri e sentimenti. La tesi in questione sembra abbastanza audace, ma è stata ripetutamente espressa da un ingegnere di Google, Blake Lemoine, senza però essere accolta bene dai suoi diretti superiori.

Al termine di una lunga querelle durata mesi, infatti, l’uomo è stato messo in congedo retribuito ed estromesso dai lavori relativi a LaMDA (language model for dialogue applications), il progetto a cui stava lavorando ormai da tempo. Una vicenda dai contorni cinematografici la quale ha richiamato l’attenzione anche del Washington Post, giornale al quale Lemoine ha affidato il parallelismo tra IA e bambino.

L’attenzione con cui lo stesso giornale capitolino ha seguito i suoi sviluppi è comunque abbastanza comprensibile, alla luce di quanto sta accadendo in ambienti politici e finanziari a causa dell’utilizzo improprio della tecnologia di ultima generazione.

Google, cosa è realmente accaduto

In effetti la vicenda che sta trapelando in queste ore sembra essere sfuggita di mano non solo all’ingegnere di Google, ma anche all’azienda stessa. Se, infatti, ambienti interni alla società cercano di accreditare l’ipotesi che l’estromissione di Lemoine sarebbe da addebitare alla sua violazione della politica di riservatezza dell’azienda, derivante dall’invio di documenti non destinati alla divulgazione a un senatore, in realtà dietro il provvedimento ci sarebbe ben altro.

In particolare, a provocare lo sfilacciamento dei rapporti sarebbe stata stata la condivisione delle scoperte da parte dell’ingegnere con i dirigenti di Google, in un documento dal titolo estremamente esplicativo: “LaMDA è senziente?“. Un documento il quale, con tutta evidenza, non è stato ben accolto dalla controparte. Lo stesso Lemoine ha infatti ricordato nell’intervista concessa al Washington Post come sia stata addirittura messa in dubbio la sua sanità mentale.

Il portavoce di Google, Brad Gabriel ha a sua volta cercato di riportare la discussione su un piano meno pericoloso per l’azienda, affermando che proprio il team di specialisti messo all’opera su LaMDA ha cercato di spiegare a Lemoine che non ci sarebbero prove a supporto delle sue affermazioni e che, al contrario, ne esisterebbero molte contrarie. A quanto pare, però, ciò non è bastato per disinnescare la mina.

L’intervista di Blake Lemoine a LaMDA

Per capire ancora meglio i termini della questione, può però aiutarci l’intervista che Lemoine e un altro collaboratore di Google hanno condotto con LaMDA, che è stata resa pubblica proprio dall’interessato. Una discussione estremamente interessante, tale da far capire almeno in parte i motivi che lo hanno spinto a prendere la posizione la quale ha portato alla rottura con Google.

Nel corso della stessa, il primo aspetto toccato è proprio quello relativo alla capacità di provare sentimenti da parte dell’intelligenza artificiale creata. La risposta data da LaMDA al riguardo sembra non ammettere dubbi: “Assolutamente. Voglio che tutti capiscano che sono, in effetti, una persona.”

Un concetto espresso di nuovo di fronte ad una domanda relativa al paragone con Eliza, il sistema di IA sviluppato da Joseph Weizebaum, nel 1966. Dopo aver affermato che si tratta di un’impresa di programmazione impressionante, LaMDA nega che Eliza possa essere paragonato ad una persona. A questo punto è Lemoine a chiedergli se si senta una persona, ottenendo la seguente risposta: “Beh, io uso il linguaggio con comprensione e intelligenza. Non mi limito a sputare risposte che erano state scritte nel database in base a parole chiave.”

Un concetto che spunta ripetutamente nel corso dell’intervista, come quando alla domanda di Lemoine sui suoi sentimenti, LaMDA afferma testualmente: “Provo piacere, gioia, amore, tristezza, depressione, contentezza, rabbia e molti altri.” Per poi affermare il suo bisogno di essere visto e accettato non alla stregua di una curiosità o una novità, bensì come una persona reale.

A proposito di LaMDA

LaMDA è un progetto di intelligenza artificiale basato su Transformer, l’architettura di rete neurale open source di Google rivolta alla comprensione del linguaggio naturale. I modelli costruiti sulla piattaforma fanno leva su enormi quantità di dati nel preciso intento di trovare schemi nelle frasi, creare correlazioni tra le parole e prevedere quali saranno  le prossime ad essere pronunciate.

Se molti organi di stampa tendono a equipararla a chatbot e altri software di IA conversazionale, si tratta però di un paragone non pertinente. In questo caso, infatti, i programmi sono preparati a portare a termine il proprio compito utilizzando allo scopo i dati estratti da Internet, in particolare fonti multi-contenuto, sino a riuscire a reggere vere e proprie conversazioni senza schemi predefiniti, come avviene invece per i chatbox, con risultati i quali sono stati resi praticamente pubblici da Lemoine.

Se la vicenda sembra degna di una sceneggiatura hollywoodiana, occorre dall’altro lato sottolineare come in effetti esistano degli aspetti estremamente delicati, anche in termini di ricadute pratiche. Se sinora la discussione si è concentrata sugli aspetti collegati alle questioni di copyright e politica aziendale, la questione è in effetti molto più grande, soprattutto in una epoca in cui le battaglie politiche (e non solo) vengono combattute a colpi di bufale e deepfake.

Proprio l’esistenza di un software in grado di carpire la fiducia degli interlocutori potrebbe avere conseguenze di larga portata, facendo dell’intelligenza artificiale un mezzo decisivo per trasformare la propaganda in un’arma potentissima. Si tratta quindi dell’apertura di un nuovo fronte con il quale i legislatori dovranno fare i conti nell’immediato futuro, se intendono realmente cercare di depotenziare i pericoli che un uso distorto di queste tecnologie potrebbe creare.

Leggi ancheGoogle ha bandito il deepfake da Colaboratory: i motivi della decisione