Nel pieno di una fase storica in cui l’intelligenza artificiale continua a compiere passi da gigante, spesso e volentieri più rapidi di quanto il settore stesso riesca a metabolizzare, Anthropic lancia un’iniziativa che prova a ribaltare una narrativa sempre più diffusa: quella dei modelli IA come strumenti potenzialmente pericolosi. Con il nuovo Project Glasswing infatti, alcuni dei principali colossi tecnologici mondiali uniscono le forze per sfruttare queste capacità avanzate in chiave difensiva, con un obbiettivo tanto ambizioso quanto necessario, ovvero proteggere i software critici su cui si regge l’intera infrastruttura digitale globale.

Offerta

Apple iPhone 17 256 GB

899€ invece di 979€
-8%

Un’alleanza senza precedenti per la sicurezza

Il progetto nasce dalla collaborazione di Anthropic con aziende del calibro di Amazon Web Services, Apple, Google, Microsoft, NVIDIA e Linux Foundation (solo per citarne alcune), che insieme hanno deciso di affrontare un problema sempre più pressante: l’evoluzione delle minacce informatiche nell’era dell’IA.

Alla base di tutto troviamo Claude Mythos Preview, un modello sviluppato da Anthropic che, pur non essendo ancora disponibile pubblicamente, ha già dimostrato capacità decisamente fuori scala.

Secondo quanto emerso, questo sistema è in grado non solo di individuare vulnerabilità nel codice con una precisione superiore alla maggior parte degli esseri umani, ma anche di sviluppare exploit complessi in maniera completamente autonoma; un aspetto che, come è facile intuire, apre scenari tanto promettenti quanto delicati.

L’IA ha già superato molti esperti umani

Uno degli elementi più interessanti, e allo stesso tempo più preoccupanti, riguarda proprio il livello di competenza raggiunto da questi modelli. Claude Mythos Preview infatti, ha già identificato migliaia di vulnerabilità critiche, incluse falle presenti da decenni in software ampiamente utilizzati.

Alcuni esempi aiutano a comprendere meglio la portata del fenomeno: il modello ha individuato una vulnerabilità vecchia di 27 anni in OpenBSD, un sistema operativo noto per la sua sicurezza, oltre a problemi nascosti da oltre 16 anni in FFmpeg (nonostante milioni di test automatizzati). Ancora più significativo è il caso del kernel Linux, dove il modello è riuscito a concatenare diverse vulnerabilità fino a ottenere il controllo completo di un sistema.

In altre parole, ciò che fino a pochi anni fa richiedeva mesi di lavoro da parte di team altamente specializzati può ora essere eseguito in tempi drasticamente ridotti, e spesso senza intervento umano; ed è proprio qui che entra in gioco Project Glasswing.

Difesa o minaccia? Il doppio volto dell’IA

Come spesso accade con le tecnologie più avanzate, anche in questo caso ci troviamo davanti a una sorta di arma a doppio taglio. Le stesse capacità che permettono all’IA di scoprire vulnerabilità con estrema efficacia potrebbero infatti essere sfruttate anche da attori malevoli, abbassando drasticamente la barriera d’ingresso per attacchi informatici sofisticati.

Non è un caso che il progetto venga presentato da Anthropic come un’iniziativa urgente, secondo le stime il costo globale della criminalità informatica si aggira già oggi intorno ai 500 miliardi di dollari all’anno, e il rischio è che questa cifra possa crescere ulteriormente con la diffusione di strumenti sempre più potenti.

Allo stesso tempo però, c’è anche un lato decisamente più ottimistico della questione. Se utilizzata correttamente, l’intelligenza artificiale può diventare uno strumento fondamentale per rafforzare la sicurezza dei sistemi, individuare bug prima che vengano sfruttati e, più in generale, migliorare la qualità del software su larga scala.

Come funziona Project Glasswing di Anthropic

Nel concreto, Project Glasswing prevede l’utilizzo del modello Claude Mythos Preview di Anthropic da parte dei partner per attività di sicurezza difensiva, come il rilevamento delle vulnerabilità, il penetration testing e la protezione degli endpoint. Anthropic, dal canto suo, condividerà i risultati ottenuti con l’intero settore, nel tentativo di creare un vantaggio collettivo contro le minacce emergenti.

Un altro aspetto particolarmente interessante riguarda l’apertura verso l’ecosistema open source, oltre 40 organizzazioni avranno accesso al modello per analizzare e proteggere le proprie infrastrutture, mentre sono previsti investimenti significativi (fino a 100 milioni di dollari in crediti e ulteriori donazioni) per supportare questo lavoro.

In questo senso, il coinvolgimento della Apache Software Foundation e di realtà legate alla Linux Foundation rappresenta un segnale chiaro: la sicurezza informatica non può più essere affrontata come un problema isolato, ma richiede una collaborazione estesa tra aziende, sviluppatori e istituzioni.

Uno sguardo al futuro tra opportunità e incognite

Come spesso accade in ambito tecnologico, l’annuncio di Anthropic rappresenta più un punto di partenza che un traguardo. Gli stessi promotori del progetto sottolineano come il lavoro necessario per mettere in sicurezza le infrastrutture globali potrebbe richiedere anni, mentre le capacità dell’intelligenza artificiale continuano a evolversi nel giro di pochi mesi.

Non è ancora del tutto chiaro, ad esempio, come verranno gestiti i rischi legati alla diffusione di modelli così avanzati o quali saranno gli standard di sicurezza adottati su larga scala (un tema che, inevitabilmente, coinvolgerà anche i governi e le autorità di regolamentazione).

Quello che è certo però, è che il settore si trova davanti a un cambio di paradigma, la sicurezza informatica non sarà più soltanto una questione di difesa reattiva, ma sempre più un campo in cui l’intelligenza artificiale giocherà un ruolo centrale, nel bene e nel male.

Proprio per questo motivo, iniziative come quella di Anthropic potrebbero rappresentare uno dei primi veri tentativi di trasformare una potenziale minaccia in un vantaggio strategico. Non ci resta che attendere per scoprire se il settore riuscirà davvero a muoversi abbastanza velocemente da stare al passo con l’IA stessa.