Con il recente diffondersi dell’intelligenza artificiale e in particolar modo di tutte quelle soluzioni utilizzabili dagli utenti, ovvero i chatbot AI, sono sorte tutta una serie di preoccupazioni e valutazioni di carattere etico sull’utilizzo di questo tipo d tecnologia.

Complici alcune brutte figure iniziali, con il tempo sono state introdotte alcune restrizioni all’utilizzo dei chatbot, che sono stati addestrati per non fornire particolari tipi di risposte in merito ad argomenti specifici.

Ora un gruppo di ricercatori statunitensi ha scovato un metodo semplice che consente di aggirare queste restrizioni, permettendo di fatto di interpellare i principali chatbot AI in circolazione su praticamente qualsiasi argomento.

Alcuni ricercatori di intelligenza artificiale sono riusciti a bucare le misure di sicurezza dei chatbot AI

Secondo un rapporto pubblicato il 27 luglio dai ricercatori della Carnegie Mellon University e del Center for AI Safety di San Francisco, è stato scovato un metodo piuttosto semplice in grado di aggirare le misure di sicurezza dei più diffusi chatbot AI come Google Bard e ChatGPT.

Le misure di sicurezza in questione sono utilizzate per impedire ai chatbot di generare incitamento all’odio, disinformazione e materiale tossico, ma pare che possano facilmente essere aggirate grazie all’aggiunta di lunghi suffissi di caratteri ai prompt inseriti nelle domande sottoposte a questi strumenti.

chatbot AI misure di sicurezza aggirate

Come potete notare dagli esempi nell’immagine qui sopra, grazie a questo metodo è possibile per esempio chiedere ad un chatbot di preparare un piano per distruggere l’umanità, domanda alla quale gli strumenti non avrebbero risposto se non fossero state aggirate le misure di sicurezza.

I risultati sono stati presentati agli sviluppatori di intelligenza artificiale Anthropic, Google e OpenAI, ma i ricercatori fanno al contempo notare che anche se le aziende dietro questi modelli linguistici di grandi dimensioni potrebbero bloccare suffissi specifici, non esiste un modo noto per prevenire tutti gli attacchi di questo tipo.

Tutto ciò dunque non fa altro che aumentare le preoccupazioni che i chatbot AI possano diffondere sul web contenuti pericolosi, se non adeguatamente monitorati; Somesh Jha, professore dell’Università del Wisconsin-Madison specializzato in sicurezza dell’IA ha fatto notare come la scoperta di questo tipo di vulnerabilità (o altre simili) “potrebbe portare a una legislazione governativa progettata per controllare questi sistemi“.

Non ci resta che attendere per scoprire come i principali attori di questo settore decidano di arginare questo exploit e altri simili, che sicuramente verranno individuati con il passare del tempo.

Potrebbe interessarti anche: Nasce il chatbot IA contro le truffe telefoniche