Il tema della competizione nel settore dell’intelligenza artificiale sta entrando in una fase sempre più delicata e, per certi versi, geopoliticamente sensibile. Nelle ultime ore Anthropic, la società dietro al modello Claude, ha pubblicato un report dettagliato in cui accusa tre laboratori cinesi di aver condotto campagne su scala industriale per distillare illegalmente le capacità di Claude, generando (secondo quanto dichiarato), oltre 16 milioni di scambi tramite circa 24.000 account fraudolenti.

Un’accusa pesante, che arriva in un momento in cui il dibattito su sicurezza, controlli alle esportazioni e tutela della proprietà intellettuale nel settore IA è più acceso che mai.

Offerta

Apple iPhone Air 256 GB

899€ invece di 1239€
-27%

Cos’è la distillazione e perché non è sempre illegale

Partiamo dal contesto, perché è fondamentale. La distillazione è una tecnica di addestramento ampiamente utilizzata, consiste nell’addestrare un modello più piccolo o meno potente sfruttando le risposte generate da uno più avanzato.

È una pratica legittima e diffusa, gli stessi laboratori di frontiera, inclusa Anthropic, distillano i propri modelli per cerare versioni più leggere, economiche e adatte a specifici contesti d’uso.

Il problema, secondo Anthropic, nasce quando questa tecnica viene utilizzata da concorrenti per acquisire capacità avanzate senza svilupparle internamente, ridurre drasticamente tempi e costi di ricerca, e potenzialmente aggirare le misure di sicurezza integrate nei modelli originali; ed è qui che si inseriscono le accuse.

Oltre 16 milioni di scambi e 24.000 account fraudolenti

Nel documento pubblicato, Anthropic sostiene di aver identificato tre campagne coordinate riconducibili a DeepSeek, Moonshot AI (nota per i modelli Kimi) e MiniMax.

Le operazioni avrebbero seguito uno schema simile:

  • utilizzo dei servizi proxy commerciali per aggirare restrizioni regionali
  • creazione di migliaia di account fraudolenti
  • generazione massiva di prompt strutturati per estrarre capacità specifiche (ragionamento agentico, uso di strumenti, coding, analisi dati)

Secondo l’azienda, l’attribuzione sarebbe avvenuta con elevata affidabilità tramite correlazione di indirizzi IP, analisi dei metadati delle richieste, indicatori infrastrutturali e conferme incrociate con partner del settore.

Un elemento particolarmente interessante riguarda MiniMax, Anthropic afferma di aver intercettato la campagna mentre era ancora attiva, osservando persino un cambio di strategia nel giro di 24 ore dopo il rilascio del nuovo modello Claude.

Anthropic non offre accesso commerciale a Claude in Cina, per aggirare questo limite (secondo quanto riportato) sarebbero stati utilizzati servizi proxy che gestiscono vere e proprie architetture definite hydra cluster, ovvero reti estese di account distribuiti che mescolano traffico legittimo e traffico di distillazione, sostituiscono rapidamente gli account bannati e distribuiscono le richieste su più infrastrutture cloud.

In un caso specifico, una singola rete avrebbe gestito oltre 20.000 account fraudolenti contemporaneamente. Il dettaglio che distingue un uso legittimo da un attacco di distillazione, sottolinea Anthropic, non è il singolo prompt (spesso apparentemente innocuo), ma il pattern: volumi enormi, strutture ripetitive e focalizzate su capacità chiave per l’addestramento.

Sicurezza nazionale e controlli sulle esportazioni

Il report non si limita all’aspetto tecnico, ma entra in una dimensione più ampia, quella della sicurezza nazionale. Secondo Anthropic, modelli distillati illecitamente potrebbero perdere le salvaguardie integrate nei sistemi americani, essere impiegati in contesti militari o di sorveglianza, nonché alimentare operazioni di disinformazione o cyber attacchi.

L’azienda collega direttamente il fenomeno ai controlli sulle esportazioni di chip avanzati, sostenendo che la distillazione su larga scala richiede comunque un accesso a hardware di fascia alta; in quest’ottica, gli attacchi di distillazione non dimostrerebbero l’inefficacia dei controlli, ma anzi ne rafforzerebbero la necessità.

Vale la pena ricordare che accuse simili erano state avanzate in passato anche da OpenAI, che aveva parlato di tentativi di distillazione dei propri modelli, arrivando a bannare account sospetti.

Il quadro che emerge è dunque quello di una competizione sempre più aggressiva tra laboratori IA di frontiera, dove il confine tra ricerca legittima e appropriazione indebita di capacità diventa sottile e difficile da monitorare.

Come risponde Anthropic

L’azienda ha annunciato una serie di contromisure:

  • sviluppo di classificatori e sistemi di fingerprinting comportamentale
  • rilevamento dell’elicitazione della chain of thought su larga scala
  • rafforzamento dei controlli sugli account educativi e startup
  • condivisione di indicatori tecnici con altri laboratori e autorità competenti
  • sviluppo di contromisure a livello di API e modello per ridurre l’efficacia della distillazione illecita

Anthropic sottolinea che nessuna azienda può affrontare il problema da sola, auspicando una risposta coordinata tra industria, provider cloud e decisori politici.

La vicenda arriva in un momento in cui il settore IA è già attraversato da tensioni legali e regolatorie (basti pensare alle cause legate ai dati di addestramento), l’accusa di campagne industriali di distillazione aggiunge un ulteriore livello di complessità a uno scenario in cui innovazione, sicurezza e competizione globale si intrecciano sempre di più.

Resta ora da capire quali saranno le eventuali risposte ufficiali dei laboratori chiamati in causa e se la questione si sposterà anche su un piano politico e normativo.