Una settimana convulsa ha scosso il mondo dell’intelligenza artificiale, con l’amministrazione Trump che ha bannato Anthropic dalle agenzie federali, centinaia di dipendenti Google e OpenAI che hanno firmato una lettera di solidarietà con l’azienda rivale, e OpenAI che, poche ore dopo, ha siglato un accordo con il Pentagono. Una vicenda che solleva interrogativi profondi sul rapporto tra tech companies, etica dell’AI e apparato militare statunitense.

Offerta

Novità! DREAME L10s Ultra Gen 3

Kit Robot Aspirapolvere e Lavapavimenti, Aspirazione da 25.000 Pa, Spazzola

455€ invece di 599€
-24%

Il ban per Anthropic

Venerdì 27 febbraio 2026, alle 15:47 ora locale, il presidente Donald Trump ha pubblicato su Truth Social un ordine perentorio che ha scosso l’industria tech. “GLI STATI UNITI D’AMERICA NON PERMETTERANNO MAI A UN’AZIENDA RADICALE DI SINISTRA E WOKE DI DETTARE COME LE NOSTRE GRANDI FORZE ARMATE COMBATTONO E VINCONO LE GUERRE”, ha scritto Trump (si, ha scritto tutto in maiuscolo NdR), ordinando a ogni agenzia federale di cessare immediatamente l’utilizzo di qualsiasi tecnologia di Anthropic.

L’ordine è arrivato ben prima della scadenza che lo stesso Pentagono aveva fissato per Anthropic, vale a dire le 17:01. Il segretario della Difesa Pete Hegseth ha poi annunciato che avrebbe designato Anthropic come “rischio per la catena di approvvigionamento della sicurezza nazionale“, un’etichetta tipicamente riservata ad aziende con connessioni dirette a nazioni avversarie, come ad esempio Huawei o ZTE.

La disputa nasce da un contratto da 200 milioni di dollari che Anthropic aveva firmato la scorsa estate con il Pentagono. La compagnia guidata da Dario Amodei aveva chiesto garanzie scritte che il suo modello Claude non sarebbe stato utilizzato per la sorveglianza di massa dei cittadini americani, né tantomeno per controllare sistemi d’arma automatici capaci di sparare senza un intervento umano.

Il Pentagono aveva risposto che necessitava di avere il diritto di usare Claude per “tutti gli scopi legali”, sostenendo che negoziare eccezioni caso per caso con una società privata fosse semplicemente impraticabile.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

La risposta di Amodei

Dario Amodei, CEO e fondatore di Anthropic, ha spiegato in modo molto chiaro la posizione della sua azienda. Anthropic non può “in buona coscienza” accettare le condizioni del Dipartimento della Difesa, per due motivi. Primo, l’azienda ritiene che i modelli AI di frontiera utilizzati attualmente non siano sufficientemente affidabili per essere utilizzati in armi completamente autonome, mettendo quindi a rischio sia i soldati americani che i civili.

Secondo, la sorveglianza di massa dei cittadini statunitensi costituisce una chiara violazione dei diritti fondamentali. L’azienda ha sottolineato che, per quanto ne sa, “”queste eccezioni non hanno influenzato una singola missione governativa fino a oggi”, suggerendo che le restrizioni richieste fossero più teoriche che pratiche. Anthropic ha inoltre precisato che le leggi attuali, così come le regolamentazioni, non contemplano adeguatamente i progressi nell’intelligenza artificiale, rendendo quindi necessarie delle salvaguardie aggiuntive.

Trump, nel suo post su Truth, ha accusato Anthropic di “tentare di RICATTARE il Dipartimento della Guerra e costringerli a obbedire ai loro Termini di Servizio invece che alla nostra Costituzione”, aggiungendo che la posizione dell’azienda stava “mettendo a RISCHIO VITE AMERICANE”. Ha concesso alle agenzie sei mesi per eliminare gradualmente l’uso di Claude, avvertendo che se Anthropic non avesse collaborato durante quel periodo, avrebbe usato “il pieno potere della Presidenza per costringerli a conformarsi, con gravi conseguenze civili e penali“.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

Solidarietà inaspettata

La risposta dell’industria dell’intelligenza artificiale non di è fatta attendere, ma è arrivata da un fronte inaspettato. Centinaia di dipendenti di Google e OpenAI, le due principali aziende rivali di Anthropic, hanno firmato una lettera aperta intitolata “Non saremo divisi”, chiedendo ai propri dirigenti di schierarsi con la società di Amodei nella disputa con il Pentagono.

La lettera, pubblicata su notdivided.org, ha raccolto oltre 650 firme, di cui oltre 550 provenienti da dipendenti Google e il resto da dipendenti di OpenAI. Quasi il 50% dei firmatari ha scelto di rendere pubblico il proprio nome, mentre i rimanenti hanno scelto di rimanere anonimi. Tutti i firmatari sono stati comunque verificati come dipendenti attuali delle rispettive aziende.
“Chiediamo alla leadership delle nostre aziende di mettere da parte le differenze e unirsi per continuare a rifiutare le attuali richieste del Dipartimento della Guerra di autorizzazione a utilizzare i nostri modelli per la sorveglianza di massa domestica e per uccidere persone autonomamente senza supervisione umana”, recita la lettera, citando esplicitamente le due linee rosse che Dario Amodei ha detto non dovrebbero essere attraversate da nessuna azienda AI.

Gli organizzatori originali della lettera aperta hanno precisato di non essere legati in alcuno modo ad alcuna azienda operante nel settore dell”IA, partito politico o gruppo di patrocinio. La lettera sostiene che il governo stia “cercando di dividere le aziende con la paura che qualcun altro cederà”, una tattica di pressione psicologica, ma non solo, che ha trovato una ferma opposizione proprio tra i lavoratori del settore.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

OpenAI: stesso principio, stesso accordo?

A quanto pare però l’appello non è stato raccolto da Sam Altman, CEO di OpenAI, che nella serata di ieri ha annunciato su X di aver raggiunto un accordo con il Dipartimento della Difesa. “Stasera abbiamo aggiunto un accordo con il Dipartimento della Guerra per distribuire i nostri modelli nella loro rete classificata”, ha scritto Altman aggiungendo che “in tutte le nostre interazioni, il DoW ha mostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per ottenere il miglior risultato possibile”.

Il tempismo è stato davvero notevole, con l’annuncio arrivato a poche ore dal bando di Trump nei confronti di Anthropic. Ancora più significativo è stato il contenuto. Altman aveva dichiarato che OpenAI aveva ottenuto dal Pentagono l’accettazione delle stesse linee rosse di Anthropic: “Due dei nostri principi di sicurezza più importanti sono i divieti sulla sorveglianza di massa domestica e la responsabilità umana nell’uso della forza, inclusi i sistemi d’arma autonomi”, ha scritto. “Il DoW concorda con questi principi, li riflette nella legge e nelle politiche, e li abbiamo inseriti nel nostro accordo”.

Giovedì sera, in un memo interno visto da diversi media, Altman aveva detto ai suoi dipendenti che l’azienda condivideva le stesse preoccupazioni di Anthropic: “Abbiamo da tempo creduto che l’AI non dovrebbe essere utilizzata per la sorveglianza di massa o armi letali autonome, e che gli umani dovrebbero rimanere nel ciclo decisionale per eventi automatizzati ad alto rischio. Queste sono le nostre principali linee rosse”.

Venerdì mattina, nel corso di una intervista a CNBC, Altman aveva ribadito il concetto: “Non penso personalmente che il Pentagono dovrebbe minacciare il DPA (Defense ProductionAct) contro queste aziende”. Aveva inoltre aggiunto che è importante per le aziende lavorare in sinergia con l’ambiente militare “finché rispetterà le protezioni legali” e “le poche linee rosse che condividiamo con Anthropic e con cui altre aziende concordano indipendentemente”.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

Le differenze sottili

La domanda che sorge spontanea, alla luce dell’evoluzione della situazione è “cosa differenzia l’accordo di OpenAI da quello che Anthropic voleva?”. Entrambe le aziende hanno chiesto garanzie contro l’uso dell’intelligenza artificiale per la sorveglianza di massa domestica e per le armi autonome. Ed entrambe hanno sottolineato l’importanza del controllo umano in queste situazioni.

Secondo fonti vicine a OpenAI, la differenza fondamentale starebbe nell’approccio negoziale. Un funzionario del Pentagono ha riferito ad Axios che “il problema di Dario [Amodei] è che, per lui, è ideologico. Sappiamo con chi abbiamo a che fare”. Questa dichiarazione suggerisce che il Pentagono abbia percepito una minore flessibilità di Anthropic sulla situazione, e una maggiore rigidità sulle questioni etiche.

OpenAI ha sottolineato che costruirà delle proprie “salvaguardie tecniche per garantire che i suoi modelli si comportino come dovrebbero” e che invierà del personale per “aiutare con i nostri modelli e assicurarne la sicurezza”. Altman ha inoltre chiesto al Pentagono di “offrire questi stessi termini a tutte le aziende AI, che secondo noi tutti dovrebbero essere disposti ad accettare”, esprimendo il forte desiderio che la situazione si allontani da azioni legali e governative andando verso accordi ragionevoli.

Alcuni osservatori hanno notato una possibile differenza chiave: Anthropic voleva garanzie scritte esplicite che alcune categorie fossero espressamente vietate, mentre OpenAI potrebbe aver accettato un linguaggio più generico che fa riferimento a leggi e politiche esistenti del Dipartimento della Difesa. Emil Michael, funzionario dell’amministrazione Trump con legami nel mondo tech, alla guida della “battaglia” contro Anthropic, aveva dichiarato nel corso di una intervista a CBS News che “le leggi federali e politiche del Pentagono già vietano l’uso di AI per la sorveglianza di massa domestica e le armi autonome”. Aggiungendo poi che “a un certo punto devi fidarti delle tue forze armate per fare la cosa giusta”.

Jerry McGinn, direttore del Center for the Industrial Base presso il Center for Strategic and International Studies, un think tank di Washington, ha sottolineato quanto la situazione sia inusuale. “Questo è sicuramente diverso, i contractor del Pentagono di solito non dettano come i loro prodotti e servizi possono essere usati, perché altrimenti staresti negoziando casi d’uso per ogni contratto, e questo non è praticabile”.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

Elon Musk era già pronto

In questo scenario non sorprende la posizione di Elon Musk, che qualche giorno fa aveva siglato un accordo con il Pentagono, accettando in linea di principio le richieste di utilizzo “per tutti gli scopi legali”, posizionando potenzialmente Grok di xAI come sostituto di Claude, ancor prima che quest’ultimo fosse effettivamente bannato.

La vicenda solleva interrogativi profondi sul futuro dell’industria AI e sul suo rapporto con l’apparato militare. Da un lato, c’è la preoccupazione legittima che i modelli AI attuali non siano abbastanza affidabili per applicazioni militari critiche. Dall’altro, c’è il timore che rifiutare di collaborare col governo possa portare a ritorsioni economiche e reputazionali devastanti.

Anthropic, da parte sua, ha già annunciato che intende contestare in tribunale la designazione come “rischio per la catena di approvvigionamento”, sostenendo che tale etichetta sarebbe “sia legalmente insostenibile che pericolosa come precedente per qualsiasi azienda americana che negozia con il governo”. Finora Claude era l’unico modello di intelligenza artificiale approvato per l’uso nei sistemi militari classificati, e Palantir, l’azienda di software per la difesa che usa Claude per i suoi contratti governativi più sensibili, dovrà trovare rapidamente un sostituto.

La settimana si chiude quindi con un quadro decisamente frammentato: un; azienda bannata per aver difeso i propri principi etici, centinaia di dipendenti di aziende rivali che hanno offerto la propria solidarietà, e un’altra azienda che ha ottenuto, almeno in apparenza, le stesse garanzie senza però incorrere nell’ira presidenziale.

È dunque una questione di forma o di sostanza? E soprattutto, quale precedente sta creando l’intera vicenda per il futuro del rapporto tra la Silicon Valley e Washington?

I nostri contenuti da non perdere: