La controversia tra Anthropic e il Dipartimento della Difesa americano ha scosso il mondo tecnologico, sollevando interrogativi fondamentali sul rapporto tra aziende private e governo. Il CEO Dario Amodei ha accusato OpenAI di “bugie” nella gestione del proprio accordo militare, mentre una coalizione di big tech ha espresso preoccupazione per la designazione di Anthropic come “rischio per la catena di approvvigionamento”, un’etichetta mai applicata prima a un’azienda americana. Facciamo un breve riepilogo della situazione (qui trovate la narrazione completa), prima di affrontare i recentissimi sviluppi.

Offerta

Samsung Galaxy S26 Ultra, 512GB

Offerta + sconto di 100€ da applicare in pagina (visibile se loggati)

1399€ invece di 1699€
-18%

Linee rosse invalicabili

La rottura tra Anthropic e il Pentagono si è consumata dopo settimane di negoziati su un contratto da 200 milioni di dollari. L’azienda fondata da Dario Amodei aveva già una collaborazione attiva con il Dipartimento della Difesa, ma si è rifiutata di accettare due clausole fondamentali: permettere l’uso della propria tecnologia di intelligenza aertificiale per la sorveglianza di massa domestica e per armi autonome capaci di colpire senza supervisione umana.

Anthropic aveva specificamente contestato l’insistenza del Pentagono sull’utilizzo dell’IA per “qualsiasi uso legale“. Una formulazione vaga che, secondo l’azienda, avrebbe potuto aprire la porta a impieghi eticamente discutibili. Il Dipartimento della Difesa, ribattezzato “Department of War” sotto l’amministrazione Trump, non ha accettato di circoscrivere esplicitamente questi usi, portando alla rottura definitiva.

Il 27 febbraio 2026, il Segretario alla Difesa Pete Hegseth ha pubblicato un post su X annunciando la designazione di Anthropic come “rischio per la catena di approvvigionamento della sicurezza nazionale”. Una mossa senza precedenti: mai prima d’ora un’azienda americana aveva ricevuto un’etichetta riservata storicamente a entità controllate da governi stranieri come Cina e Russia.

Le conseguenze immediate sono state drastiche. Nel suo post, Hegseth ha dichiarato che “con effetto immediato, nessun appaltatore, fornitore o partner che fa affari con l’esercito degli Stati Uniti può condurre alcuna attività commerciale con Anthropic”. Una formulazione che, se applicata alla lettera, potrebbe costringere tutte le aziende che lavorano con il Pentagono a tagliare i ponti con Anthropic.

La firma di OpenAI e la nuova polemica

Poche ore dopo l’annuncio della designazione di Anthropic, OpenAI ha comunicato di aver raggiunto un accordo con il Pentagono per l’utilizzo dei propri modelli AI in ambienti classificati. Sam Altman, CEO di OpenAI, ha dichiarato che il contratto include le stesse due limitazioni richieste da Anthropic: niente sorveglianza di massa domestica, niente armi autonome.

OpenAI ha specificato nel proprio blog post che l’accordo permette l’uso dei sistemi AI per “tutti gli scopi legali”, aggiungendo però che “era chiaro nella nostra interazione che il Dipartimento della Difesa considera illegale la sorveglianza di massa domestica e non stava pianificando di utilizzarla per questo scopo. Abbiamo garantito che il fatto che non sia coperta dall’uso legale fosse reso esplicito nel nostro contratto”.

La reazione di Dario Amodei non si è fatta attendere. In un memo interno ai dipendenti riportato da The Information, il CEO di Anthropic ha definito la comunicazione di OpenAI “pura e semplice menzogna“, accusando Altman di “presentarsi falsamente come pacificatore e intermediario”. Secondo Amodei, l’accordo di OpenAI sarebbe “teatro della sicurezza”, una facciata che non offre protezioni reali.

“La ragione principale per cui loro hanno accettato e noi no è che a loro importava di placare i dipendenti, mentre a noi importava davvero di prevenire gli abusi”, ha scritto Amodei nel memo. Il CEO ha anche espresso preoccupazione che questa “distorsione dei fatti” possa funzionare sui dipendenti di OpenAI, pur riconoscendo che il pubblico e i media sembrano vedere la vicenda diversamente.

I critici hanno sottolineato un punto debole fondamentale negli accordi basati sulla “legalità”: le leggi possono cambiare. Ciò che è considerato illegale oggi potrebbe diventare permesso domani, rendendo inefficaci le protezioni contrattuali basate esclusivamente sul rispetto della legge vigente. Il pubblico, dal canto suo, sembra dare ragione ad Anthropic, tanto che le disinstallazioni di ChatGPT sono aumentate del 295% dopo l’annuncio dell’accordo di OpenAI con il Pentagono. Nel frattempo, Claude, il chatbot di Anthropic, ha conquistato la seconda posizione nell’App Store americano.

Le trattative riprendono, la vicenda non è finita

Nonostante lo scontro pubblico e le accuse reciproche, secondo quanto riportato dal Financial Times, Anthropic e il Pentagono sono tornati al tavolo negoziale. Dario Amodei ha ripreso le discussioni con Emil Michael, sottosegretario alla Difesa per la ricerca e l’ingegneria, nel tentativo di definire nuove condizioni per l’accesso ai modelli Claude da parte del Pentagono.

Secondo il dirigente, le differenze tra l’azienda e il Pentagono sarebbero meno profonde di quanto suggerito dallo scontro pubblico delle ultime settimane. Alcune fonti vicine ai programmi militati affermano che la tecnologia sarebbe stata impiegata anche in operazioni legate al conflitto tra Stati Uniti e Iran, oltre che per l’arresto dell’ex presidente venezuelano Maduro. Questo utilizzo operativo ha contribuito ad alimentare ulteriormente il dibattito sul ruolo che i modelli di intelligenza artificiale generativa e analitica potrebbero assumere nei sistemi di difesa.

Al centro dello scontro rimangono le cosiddette “linee rosse”, ovvero i vincoli sull’utilizzo dei modelli di AI. Emil Michael ha dichiarato che il Dipartimento aveva già proposto un riconoscimento formale delle normative federali e delle politiche militari che limitano tali applicazioni. Tuttavia, secondo Anthropic, la formulazione lasciava spazio a interpretazioni che avrebbero potuto aggirare le restrizioni. In sostanza, legando le protezioni alla legalità corrente piuttosto che a divieti espliciti nel contratto, il Pentagono si riserva de facto la possibilità di utilizzare l’IA per qualsiasi scopo qualora le limitazioni di legge dovessero cambiare in futuro, una flessibilità che Anthropic ha rifiutato categoricamente.

Amodei ha infatti spiegato in diverse occasioni che l’azienda non intende avere un ruolo operativo nelle decisioni militari, ma vuole evitare che la propria tecnologia venga utilizzata in contesti che considera incompatibili con determinati principi etici. Allo stesso tempo ha ribadito il sostegno alla difesa degli Stati Uniti, sottolineando che le divergenze riguardano soprattutto l’interpretazione dei limiti operativi dell’AI.

Big tech si mobilita, Apple tra i firmatari della lettera di protesta

La designazione di Anthropic ha innescato una reazione inattesa nel mondo tecnologico. L’Information Technology Industry Council, un’organizzazione di settore i cui membri includono Apple, Nvidia e Amazon, ha inviato mercoledì 4 marzo una lettera al Segretario Hegseth esprimendo preoccupazione. Secondo quanto riportato da Reuters, la lettera non menziona esplicitamente Anthropic per nome, ma il riferimento è inequivocabile. “Siamo preoccupati dalle recenti notizie riguardo la considerazione da parte del Dipartimento della Difesa di imporre una designazione di rischio per la catena di approvvigionamento in risposta a una disputa sugli appalti”, si legge nel documento.

Il Council ha sottolineato che questa dichiarazione minaccia di “minare l’accesso del governo ai prodotti e servizi migliori della categoria forniti da aziende americane che servono tutte le agenzie e i componenti del governo federale”. La preoccupazione è che la designazione crei un precedente pericoloso, qualsiasi azienda che non accetti i termini del governo potrebbe essere punita in modo simile. Jason Oxman, CEO del Council, ha argomentato che designazioni come quella applicata ad Anthropic “esistono per emergenze genuine e sono tipicamente riservate a entità che sono state designate come avversari stranieri“.

Ha aggiunto che tali dispute dovrebbero essere risolte attraverso i canali di approvvigionamento stabiliti o selezionando fornitori alternativi, non attraverso sanzioni che colpiscono l’intera attività commerciale di un’azienda. Il Dipartimento della Difesa, dal canto suo, ha risposto che seguirà la sua prassi standard di “rispondere direttamente agli autori come appropriato”, senza fornire ulteriori dettagli.

Anthropic ha definito la designazione “legalmente infondata” e ha comunicato ai propri clienti commerciali che sono “non interessati” dalla misura, che dovrebbe applicarsi solo ai contratti governativi. L’azienda ha anche indicato di voler contestare la decisione in tribunale e molti esperti legali concordano nel ritenere che l’estensione della designazione alle attività commerciali private vada ben oltre l’autorità statutaria del governo.

In seguito alle polemiche, il CEO di OpenAI Sam Altman ha ammesso di aver accelerato troppo la conclusione dell’intesa e ha segnalato l’intenzione di rafforzare alcune salvaguardie sull’uso militare della tecnologia.

La vicenda ha sollevato questioni profonde sul rapporto tra innovazione tecnologica e interessi militari. Amodei ha scritto nel suo memo, “Penso che questo tentativo di distorsione dei fatti non stia funzionando molto bene sul pubblico generale o sui media, dove le persone vedono per lo più l’accordo di OpenAI con il Dipartimento della Difesa come losco o sospetto, e vedono noi come gli eroi (ora siamo al numero 2 nell’App Store!)”. Ha poi aggiunto, “Sta funzionando su alcuni idioti di Twitter, il che non conta, ma la mia principale preoccupazione è come assicurarmi che non funzioni sui dipendenti di OpenAI”.

La controversia mette in luce una tensione fondamentale nell’era dell’intelligenza artificiale: chi stabilisce i limiti etici nell’uso militare di queste tecnologie? Le aziende private hanno il diritto, o addirittura il dovere, di rifiutare contratti che violano i propri principi? E i governi possono legittimamente punire aziende private che esercitano questo diritto?

Per ora, il ritorno al tavolo negoziale suggerisce che entrambe le parti riconoscono l’importanza di trovare un accordo. Ma il successo di queste trattative rimane incerto, con la designazione di “rischio per la catena di approvvigionamento” ancora pendente e le posizioni di principio di Anthropic apparentemente irremovibili. Il crescente sostegno pubblico e l’intervento delle principali organizzazioni di settore suggeriscono che questa battaglia potrebbe avere implicazioni che vanno ben oltre i confini di una singola azienda.