Le discussioni intorno a ChatGPT proseguono con notevole intensità e non potrebbe essere diversamente alla luce delle sue possibili applicazioni anche in ambito commerciale. Tra gli aspetti che stanno emergendo con il passare dei giorni, però, ci sono anche quelli relativi alla sicurezza, dopo gli allarmi lanciati dai ricercatori di Check Point Research. Sulla questione si esprime ora la nota casa di cyber-security Kaspersky.

Come ChatGPT influenzerà la sicurezza informatica

Anche Kaspersky ha iniziato ad analizzare ChatGPT-3, il chatbot di OpenAI che è al centro dell’attenzione generale ormai da settimane. In particolare, la nota azienda di sicurezza informatica ha puntato il suo sguardo sul modo in cui la disponibilità del programma al grande pubblico potrebbe andare a mutare le attuali e consolidate regole in tema di cybersecurity.

Il punto da cui partire è rappresentato proprio dal fatto che ChatGPT-3 è uno dei più potenti modelli di intelligenza artificiale mai realizzati sino ad oggi. Tanto da risultare in grado di affrontare e spiegare concetti scientifici complessi, scrivere musica e generare una lunga serie di testi in base alle richieste dell’utente.

ChatGPT-3, quindi, è principalmente un modello di linguaggio AI in grado di creare testi credibili e tali in definitiva da poter risultare difficilmente distinguibili da quelli prodotti dagli esseri umani. Un’attitudine che è stata subito intravisto alla stregua di una nuova opportunità dalla pirateria informatica.

Nuove opportunità che riguardano soprattutto lo spear-phishing. Se, infatti, in precedenza le campagne di massa di spear-phishing erano rese praticamente impossibili dai costi elevati collegati alla scrittura di comunicazioni di posta elettronica mirate, ChatGPT muta sostanzialmente il quadro, rendendo possibile la generazione di email phishing persuasive e personalizzate su scala industriale. Il programma è addirittura in grado di riprodurre la corrispondenza, creando false e-mail le quali possono sembrare oggetto di uno scambio di missive tra i dipendenti di un’azienda. Ne consegue una facile previsione: gli attacchi di phishing sono destinati ad aumentare in maniera esponenziale, con un incremento in termini di probabilità di successo.

ChatGPT è in grado di generare codici, anche dannosi. Per gli hacker si aprirà la possibilità di creare un semplice infostealer anche senza possedere competenze di programmazione. Secondo gli analisti di Kaspersky, comunque, gli utenti più esperti non dovrebbero avere nulla da temere. In caso di effettiva utilizzazione di un codice scritto da un bot, le soluzioni di sicurezza già esistenti sono infatti in grado di rilevarlo e neutralizzarlo, con la stessa rapidità con cui sono stati del resto stati individuati tutti i precedenti malware prodotti dall’uomo.

Sebbene esiste il timore che il chatbot di OpenAI possa rivelarsi in grado di produrre malware personalizzati per ogni possibile vittima, modelli di questo genere andrebbero comunque a evidenziare un comportamento dannoso il quale verrebbe rilevato con ogni probabilità da un sistema di sicurezza informatica. Senza contare la probabilità che il software creato da ChatGPT sia caratterizzato da errori e difetti logici, derivanti dal fatto che ancora deve essere conseguita la piena automazione della codifica del programma malevolo.

Un altro fatto di notevole importanza segnalato dai ricercatori di Kaspersky è poi quello relativo al fatto che uno strumento di questo genere potrebbe risultare molto utile anche per chi si deve difendere da attacchi hacking. ChatGPT è infatti già in grado di spiegare rapidamente il comportamento di un particolare elemento di codice. In particolare evidenzia la sua utilità per gli analisti del SOC (Security Operations Center), il team incaricato di garantire la sicurezza delle informazioni di una azienda. Perennemente oberati di lavoro, gli incaricati sono costretti a comprimere al minimo il tempo dedicato a ogni incidente e non potrebbero che giovarsi di uno strumento simile.

Una conclusione quindi nel segno della speranza, dopo i primi allarmi generati dall’ipotesi che il programma di OpenAI possa essere utilizzato dalla criminalità informatica.

Le prossime generazioni di intelligenza artificiale potrebbero mutare il quadro

Il commento al documento emesso dall’azienda è arrivato ad opera di Vladislav Tushkanov, Security Expert di KasperskY: “Sebbene ChatGPT non svolga alcuna azione dannosa, potrebbe aiutare gli attaccanti in diverse situazioni, ad esempio scrivendo e-mail di phishing mirate e credibili. Tuttavia, al momento, ChatGPT non è assolutamente in grado di diventare una sorta di IA autonoma per l’hacking. Il codice malevolo generato dalla rete neurale non sarà necessariamente funzionante e richiederà comunque uno specialista esperto per essere migliorato e implementato. Nonostante ChatGPT non abbia un impatto immediato sull’industria e non cambi il mondo della cybersecurity, le prossime generazioni di IA probabilmente lo faranno. Nei prossimi anni, potremmo vedere come i modelli linguistici di grandi capacità, basati sia sul linguaggio naturale che sul codice di programmazione, vengano adattati a casi d’uso specializzati nella cybersecurity. Questi cambiamenti possono influenzare un’ampia gamma di attività di cybersecurity, dalla ricerca delle minacce alla risposta agli incidenti. Pertanto, le aziende di cybersecurity vorranno esplorare le possibilità offerte dai nuovi strumenti, pur essendo consapevoli che questa tecnologia potrebbe aiutare i criminali informatici”.

Un parere, il suo, che sembra contrastare quello di Sergey Shykevich, Threat Intelligence Group Manager di Check Point Software, secondo il quale il chatbox sarebbe già al momento in grado di dare luogo ad un vero e proprio salto di qualità nel panorama delle minacce informatiche. Non resta che attendere i prossimi mesi per capire chi dei due abbia ragione.

Leggi ancheCos’è ChatGPT, il nuovo chatbox che minaccia il dominio sul web di Google