C’è un’ombra che si allunga su Anthropic. A poche settimane dal lancio riservato di Mythos, il suo strumento di cybersecurity aziendale basato sull’intelligenza artificiale, la società fondata da Dario Amodei si trova a fare i conti con una notizia scomoda: secondo quanto riportato da Bloomberg, un gruppo di utenti non identificati avrebbe ottenuto accesso al modello senza alcuna autorizzazione.
Indice:
Cos’è Mythos e perché fa paura
Prima di capire la portata dell’accaduto, vale la pena chiarire di cosa si parla. Mythos è un prodotto AI pensato per la sicurezza informatica in ambito enterprise, progettato per aiutare le aziende a identificare vulnerabilità nei propri sistemi e a difendersi da attacchi informatici. Anthropic stessa, però, aveva messo in guardia sin dall’inizio: nelle mani sbagliate, questo strumento potrebbe trasformarsi in un’arma da offensiva piuttosto che da difesa. Un’arma sofisticata, capace di individuare punti deboli nelle infrastrutture aziendali con una precisione difficilmente raggiungibile con i metodi tradizionali.
Proprio per questo motivo, il rilascio di Mythos era stato volutamente limitato a una cerchia ristrettissima di partner selezionati, nell’ambito di un programma denominato Project Glasswing. Tra i nomi coinvolti figura anche Apple, a testimonianza del livello di esclusività, e di delicatezza, dell’iniziativa.
La falla nel sistema: un vendor terzo come porta d’ingresso
Stando alla ricostruzione di Bloomberg, il gruppo non avrebbe violato direttamente i sistemi di Anthropic. La via d’accesso sarebbe stata più sottile: un ambiente gestito da un vendor di terze parti che collabora con la società. In pratica, uno dei tanti anelli della catena di fornitura tecnologica avrebbe rappresentato il punto vulnerabile dell’intera operazione.
La fonte intervistata dall’outlet finanziario sarebbe un dipendente di questo contractor esterno, che avrebbe facilitato, consapevolmente o meno, l’accesso al modello. Il gruppo, attivo su un canale Discord dedicato alla ricerca di informazioni su modelli AI non ancora rilasciati al pubblico, avrebbe adottato diverse strategie per penetrare nel sistema, compreso un tentativo piuttosto audace: indovinare la posizione online del modello basandosi sui pattern già noti di Anthropic per altri prodotti. Un metodo empirico, quasi artigianale, ma apparentemente efficace.

«Non volevamo fare danni»
Ciò che rende la vicenda ancora più interessante, e per certi versi inquietante, è la motivazione dichiarata dal gruppo. Secondo la fonte di Bloomberg, i protagonisti di questa storia non avrebbero avuto intenzioni malevole: «Siamo interessati a esplorare i nuovi modelli, non a fare danni», avrebbe spiegato l’interlocutore. A supporto delle proprie affermazioni, il gruppo ha fornito alla testata screenshot e una dimostrazione dal vivo dell’utilizzo del software.
Curiosità tecnica o criminalità informatica? Il confine, in questi casi, è spesso più sottile di quanto sembri. E comunque, indipendentemente dalle intenzioni dichiarate, l’accesso non autorizzato a uno strumento di questo tipo rappresenta una violazione potenzialmente gravissima.
La risposta di Anthropic
Dal quartier generale della società è arrivata una conferma ufficiale, seppur cauta. «Stiamo indagando su una segnalazione che sostiene un accesso non autorizzato a Claude Mythos Preview attraverso l’ambiente di uno dei nostri vendor terzi», ha dichiarato un portavoce di Anthropic, precisando che al momento non è emersa alcuna prova di un impatto diretto sui sistemi interni dell’azienda.
Una distinzione importante, ma che non alleggerisce più di tanto il peso della situazione. Se le conclusioni dell’indagine dovessero confermare quanto riportato, per Anthropic si aprirebbe un problema di immagine e di fiducia non trascurabile: l’intera premessa di Project Glasswing era costruita attorno alla garanzia di un rilascio controllato, pensato proprio per scongiurare utilizzi impropri. Quel meccanismo di controllo, almeno in apparenza, ha mostrato la prima crepa.
Il nodo della sicurezza nella supply chain AI
Questa vicenda porta alla luce un tema destinato a diventare sempre più centrale nel dibattito sull’intelligenza artificiale: la sicurezza non riguarda solo il prodotto finale, ma l’intera filiera che lo circonda. Vendor, contractor, partner tecnologici. Ogni soggetto coinvolto nella gestione di un modello AI sensibile diventa, potenzialmente, una superficie di attacco. Una lezione che vale per Anthropic, ma anche per tutti gli altri attori del settore che si apprestano a lanciare strumenti AI ad alto rischio.
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione AMD Ryzen 9 9950X3D2: fine dei giochi, è una super CPU ma per pochi eletti
- 🚨 Vuoi un notebook gaming serio senza spendere troppo? MSI Cyborg 15 con RTX 5060 è la risposta
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

