Il governo degli Stati Uniti sostiene che la controversia con Anthropic riguarda sicurezza nazionale e negoziati contrattuali, non libertà di espressione. Il Dipartimento di Giustizia (DOJ, Department of Justice) ha depositato la propria risposta alla causa intentata dall’azienda di intelligenza artificiale, respingendo le accuse secondo cui l’amministrazione Trump avrebbe violato il Primo Emendamento designando Anthropic come rischio per la catena di approvvigionamento e vietando alle agenzie federali di utilizzare Claude.

La posizione del DOJ è netta: quando Anthropic ha rifiutato di rimuovere le restrizioni sull’uso dei propri prodotti, quella era condotta, non discorso protetto costituzionalmente. “Nessuno ha tentato di limitare l’attività espressiva di Anthropic”, afferma il documento legale. Secondo il governo, il conflitto deriva semplicemente dal fatto che l’azienda non voleva fornire al Pentagono accesso illimitato alla propria tecnologia, e l’amministrazione ha risposto come farebbe con qualsiasi fornitore inaffidabile, terminando il contratto e proteggendo la sicurezza nazionale.

Offerta
-32%

Xiaomi Pad Mini

Coupon: TUTTOA45

341€ invece di 499€
Offerta
-39%

AMD RYZEN 7 7800X3D

Coupon: TUTTOA30

218€ invece di 359€
Offerta
-38%

OnePlus Buds 4

Coupon: ITAS07

49€ invece di 79€
Offerta
-30%

Apple AirPods Pro 3, ANC

Coupon: TUTTOA30 + sconto a carrello selezionando pagamento PayPal

187€ invece di 269€
Offerta
-31%

Insta360 X4 Air Action Camera

Coupon: TUTTOA30 + sconto a carrello selezionando pagamento PayPal

274€ invece di 399€
Offerta
-42%

HillMiles MileCity 1 e-bike

Coupon: TUTTOA60

407€ invece di 699€
Offerta
-39%

Nintendo Switch OLED

Coupon: TUTTOA30 + sconto a carrello selezionando pagamento PayPal

194€ invece di 319€

La vicenda

La battaglia è iniziata a gennaio, quando il Segretario alla Difesa Pete Hegseth ha emanato un memorandum strategico sull’intelligenza artificiale che richiedeva a tutti i contratti del Dipartimento della Difesa di adottare clausole standard “qualsiasi uso lecito”. Anthropic aveva stipulato un contratto da 200 milioni di dollari con il Pentagono nel luglio 2025, ed era stata la prima azienda di intelligenza artificiale a distribuire la propria tecnologia sulle reti classificate dell’agenzia. Ma quel contratto includeva due linee rosse specifiche che il CEO Dario Amodei non intendeva cancellare: niente armi completamente autonome, niente sorveglianza di massa dei cittadini americani.

Hegseth ha incontrato Amodei per discutere la questione, minacciando persino di invocare il Defense Production Act per costringere l’azienda a cooperare. Ma alla fine l’amministrazione Trump ha scelto una strada diversa, più drammatica. Il 27 febbraio il Pentagono ha designato formalmente Anthropic come rischio per la catena di approvvigionamento, una classificazione storicamente riservata a entità controllate da avversari stranieri come aziende legate al Partito Comunista Cinese (PCC). Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic, scrivendo su Truth Social che “NOI decideremo il destino del nostro Paese, NON qualche azienda di intelligenza artificiale Radical Left fuori controllo gestita da persone che non hanno idea di cosa sia il mondo reale”.

Anthropic ha reagito presentando due cause separate. Una presso il tribunale distrettuale degli Stati Uniti per il Northern District of California, dove sostiene che la designazione viola i propri diritti di libertà di espressione e di giusto processo, oltrepassando le leggi federali che richiedono alle agenzie di seguire procedure specifiche nelle decisioni. La seconda presso la corte d’appello del circuito di Washington DC, contestando la designazione stessa come rischio per la catena di approvvigionamento. “La reputazione e le libertà fondamentali garantite dal Primo Emendamento di Anthropic sono sotto attacco”, afferma il documento legale dell’azienda. “I contratti con il governo federale vengono già cancellati. Anche i contratti attuali e futuri con parti private sono in dubbio, mettendo a rischio centinaia di milioni di dollari nel breve termine”.

La causa solleva una questione costituzionale interessante. Anthropic sostiene che la Costituzione le conferisce il diritto di esprimere le proprie opinioni, sia pubblicamente che al governo, sui limiti dei propri servizi di intelligenza artificiale e su questioni importanti di sicurezza AI. L’azienda argomenta che piuttosto che semplicemente terminare il contratto militare a causa della disputa, l’amministrazione Trump ha lanciato una campagna di “pubblica denigrazione” e punizione straordinaria. Le azioni “inutili ed estremamente punitive, imposte alla luce del giorno, sono un paradigma di ritorsione incostituzionale”, sostiene Anthropic nella denuncia. Erano “progettate per punire il disaccordo ideologico”.

Offerta

AMD RYZEN 7 7800X3D

Coupon: TUTTOA30

218€ invece di 359€
-39%

Le “preoccupazioni” del governo

Il governo vede le cose diversamente. Secondo il DOJ, si tratta semplicemente di preoccupazioni sulla affidabilità del fornitore. Claude solleva alcuni problemi legittimi dal punto di vista del Pentagono: se un’azienda può unilateralmente limitare come il governo può usare uno strumento che ha già integrato in reti classificate, questo crea rischi operativi. Ma le azioni specifiche intraprese da Hegseth e Trump presentano seri problemi legali che vanno ben oltre una normale disputa contrattuale.

La sezione 3252 del codice, che autorizza le designazioni di rischio per la catena di approvvigionamento, definisce tale rischio come il pericolo che “un avversario” possa sabotare o sovvertire un sistema coperto. “Avversario” non è definito nella legge, ma letto insieme ai verbi operativi dello statuto (“sabotaggio”, “sovversione”, “introduzione malevola di funzioni indesiderate”), connota un’entità che agisce con intento ostile contro la catena di approvvigionamento, non un fornitore in una disputa contrattuale. La storia legislativa punta esclusivamente a minacce straniere: il rapporto del Comitato per i servizi armati del Senato inquadra la disposizione come risposta alla “globalizzazione” della catena di approvvigionamento IT.

Anthropic è un’azienda americana. Ha investitori stranieri, inclusi fondi sovrani di Singapore, Emirati Arabi Uniti e Qatar, ma investimenti passivi stranieri da nazioni alleate non sono la minaccia che questi statuti erano stati costruiti per affrontare. E il track record di sicurezza nazionale di Anthropic va nella direzione opposta: secondo l’azienda, è stata la prima società di intelligenza artificiale avanzata a distribuire su reti classificate, ha tagliato fuori aziende legate al PCC a un costo di centinaia di milioni di entrate, e ha bloccato cyberattacchi sponsorizzati dal PCC che tentavano di abusare di Claude.

La risposta dell’industria tecnologica è stata immediata e significativa. Il 13 marzo, grandi gruppi industriali tech che rappresentano aziende con contratti con il Pentagono hanno depositato un documento legale a sostegno di Anthropic chiedendo una pausa sulla designazione. Il documento è stato firmato dalla Computer & Communications Industry Association (CCIA), dall’Information Technology Industry Council (ITI), dalla Software & Information Industry Association (SIIA) e da TechNet. Google, OpenAI, Meta, Cloudflare, Adobe, Accenture, Nvidia, Microsoft e Deloitte sono tra le molte aziende rappresentate dai gruppi. “Il governo ha ampi strumenti ben consolidati per risolvere dispute sugli appalti e per contrattare con i fornitori a qualsiasi termine preferisca”, afferma il documento. Quello che non può fare, prosegue, è “abusare di autorità straordinarie di sicurezza nazionale progettate per sabotaggi da avversari stranieri” a causa di un disaccordo con un contraente, o ignorare le protezioni del Congresso e “sconvolgere il quadro legale su cui fa affidamento l’intera comunità di appalti tecnologici”.

Separatamente, dozzine di scienziati e ricercatori di OpenAI e Google DeepMind, probabilmente i due maggiori concorrenti dell’azienda, hanno depositato a loro volta una memoria di terze parti a titolo personale sostenendo Anthropic. Il gruppo ha sostenuto che la designazione come rischio per la catena di approvvigionamento potrebbe danneggiare la competitività degli Stati Uniti nel settore e ostacolare le discussioni pubbliche sui rischi e benefici dell’intelligenza artificiale.

Il profilo di Anthropic è comunque aumentato durante il conflitto, tanto che l’app Claude AI ha superato ChatGPT di OpenAI nell’App Store per iPhone per la prima volta il giorno dopo che il Pentagono ha detto che avrebbe terminato il contratto con Anthropic. L’azienda ha anche dichiarato il 5 marzo che più di un milione di persone si stanno iscrivendo a Claude ogni giorno. L’udienza per decidere se concedere ad Anthropic una misura cautelare d’urgenza è fissata per il 24 marzo.

La posta in gioco va oltre Anthropic. Se il governo può punire un’azienda americana per aver espresso opinioni su come la propria tecnologia dovrebbe essere usata, questo stabilisce un precedente pericoloso per qualsiasi società tecnologica che vuole negoziare termini con Washington. Se invece i tribunali sostengono che questo tipo di ritorsione viola il Primo Emendamento, potrebbe limitare significativamente la capacità dell’amministrazione di usare designazioni di sicurezza nazionale come arma contro aziende che non fanno quello che vuole il governo. La decisione potrebbe ridefinire i confini tra sicurezza nazionale, libertà di impresa e libertà di espressione nell’era dell’intelligenza artificiale.