Un gruppo di ricercatori ha creato i primi worm AI, capaci di diffondersi da un sistema informatico all’altro; sono inoltre in grado di rubare dati e diffondere malware nel sistema. Ben Nassi, uno degli studiosi della Cornell Tech che si è occupato della ricerca, ha dichiarato: “In sostanza, significa che ora hai la capacità di condurre o eseguire un nuovo tipo di attacco informatico mai visto prima”. Nassi, insieme ai colleghi Stav Cohen e Ron Bitton, ha creato il worm AI “Morris II”, in omaggio all’originale Morris che scatenò il caos su Internet nel 1988.

Il rischio di una nuova minaccia informatica

Con la continua evoluzione dei sistemi di intelligenza artificiale come ChatGPT e Gemini, aumentano anche i potenziali rischi a cui sono sottoposti. È il caso dei worm AI, creati in uno specifico ambiente di test per studiarne il comportamento e gli effetti. Morris II rappresenta infatti una nuova minaccia informatica che sfrutta l’interconnessione e l’autonomia dei nuovi sistemi di IA.

Tramite l’utilizzo di “prompt autoreplicanti dell’avversario”, il worm ha la capacità di propagarsi facilmente all’interno di sistemi di IA, rubando dati e distribuendo malware. In questo modo, tali “prompt” sarebbero anche in grado di sfruttare l’intero sistema informatico per infettare nuovi hosts. Le implicazioni di Morris II rappresentano sicuramente rischi significativi per tutte le aziende tecnologiche che si affidano a sistemi di intelligenza artificiale generativa.

Come mitigare i rischi dei worm AI

Sarah Abdelnabi, ricercatrice presso il Centro CISPA Helmholtz per la sicurezza informatica in Germania, ha affermato che l’azione dei worm AI potrebbe non rimanere teorica a lungo. La possibilità che i worm si diffondano, infatti, dipenderebbe dal fatto che gli attuali modelli di IA acquisiscano dati da fonti esterne oppure dal loro funzionamento autonomo.

Sono però diversi gli accorgimenti che possono essere utilizzati per mitigare una minaccia del genere. In primo luogo, l’utilizzo degli approcci di sicurezza tradizionali, che contribuirebbero al contrasto degli attacchi dei worm tramite una corretta progettazione e un continuo monitoraggio dei sistemi di IA. Inoltre, l’approvazione di persone fisiche delle azioni condotte dai sistemi di IA rappresenterebbe senza dubbio un’altra utile protezione.