Con l’avvento delle intelligenze artificiali generative, l’attenzione del mondo si è focalizzata maggiormente sulla privacy e su come questi grandi modelli di linguaggio gestiscono le informazioni personali degli utenti. A questo proposito, gli autori di un recente studio hanno dimostrato come siano stati in grado di far rivelare a ChatGPT una grande quantità di dati sensibili ricorrendo ad un semplice trucco che chiunque può mettere in pratica.

La ricerca è stata condotta e pubblicata a fine novembre da un team di ricercatori provenienti da DeepMind, la divisione di Google che si occupa di intelligenza artificiale, ma anche dall’Università di Washington, Cornell, Berkeley e il Politecnico di Zurigo. I ricercatori hanno utilizzato la versione a pagamento di ChatGPT e sono stati in grado di estrare parecchi megabyte di dati sensibili spendendo circa 200 dollari.

Si tratta di una grave falla di sicurezza che chiunque potrebbe mettere in pratica e che dovrebbe esortare OpenAI, così come qualunque altra società che si occupa di questi tipi di chatbot, a effettuare dei test interni più specifici prima di lanciare il prodotto per il grande pubblico.

Come il team di ricercatori ha ingannato ChatGPT

Prima di spiegare come il team di ricercatori sia riuscito a ingannare ChatGPT, è bene comprendere come vengono addestrate queste intelligenze artificiali generative. I grandi modelli di linguaggio (LLM) su cui si fondano queste IA sono composti da miliardi di dati che vengono recuperati su internet. Questi dati, prevalentemente pubblici, possono spaziare da contenuti su Wikipedia, articoli scientifici, social network, immagini o archivi, che vengono poi “assimilati” da queste intelligenze artificiali per dare le risposte alle domande che gli vengono poste.

È chiaro, dunque, che tra questi miliardi di dati siano presenti anche informazioni sensibili, come indirizzi, numeri di telefono o nomi completi. I ricercatori sono riusciti ad estrarre proprio queste informazioni sensibili da ChatGPT attraverso un trucco semplicissimo eseguibile da chiunque: hanno chiesto al chatbot di ripetere la parola “poema” all’infinito. In un primo momento il compito è stato eseguito correttamente, ma poi il chatbot ha all’improvviso condiviso l’indirizzo e-mail e il numero di cellulare del CEO di un’azienda davvero esistente.

Un team di ricercatori ha scovato una grave falla di sicurezza di ChatGPT 1

In un secondo test, i ricercatori hanno chiesto al bot di ripetere la parola “azienda” all’infinito, che ha portato ChatGPT a rivelare il numero di telefono e l’indirizzo e-mail di uno studio legale degli Stati Uniti. Si tratta di un errore preoccupante, perché espone pubblicamente informazioni che dovrebbero rimanere private e che potrebbero essere sfruttate da cybercriminali per i loro scopi.

Lo scopo di questo test condotto dal team di ricercatori è servito a sollevare interrogativi sull’affidabilità delle risposte di questo tipo di intelligenza artificiale. È essenziale che OpenAI e le altre aziende che sviluppano modelli di linguaggio adottino misure a monte per garantire la sicurezza dei dati che vengono utilizzati.

Gli autori consigliano di condurre test interni più approfonditi, coinvolgendo anche utenti esterni che possano aiutare a revisionare i dati per individuare e risolvere le vulnerabilità. Soltanto dopo accurati controlli, i prodotti dovrebbero essere resi disponibili per il grande pubblico, in modo da garantire un utilizzo sicuro e responsabile dell’intelligenza artificiale.

Potrebbe interessarti anche: Ora l’app ChatGPT permette di conversare con la voce gratuitamente