OpenAI ha raggiunto un accordo con il Pentagono per l’utilizzo dei suoi modelli di intelligenza artificiale in ambienti classificati, poche ore dopo che il presidente Donald Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic. L’accordo, annunciato venerdì sera dal CEO Sam Altman su X, arriva al culmine di una settimana turbolenta per l’industria dell’IA che si è trovata al centro di un acceso dibattito politico sull’uso militare dei modelli avanzati.
L’azienda sostiene che il suo contratto include più garanzie di qualsiasi precedente accordo per deployment di IA in contesti classificati, incluso quello originariamente stipulato da Anthropic. OpenAI ha definito tre “linee rosse” principali che guidano la collaborazione con il Dipartimento della Guerra, principi generalmente condivisi anche da altri laboratori di IA: divieto di utilizzo della tecnologia OpenAI per la sorveglianza di massa domestica, divieto di utilizzo per dirigere sistemi d’arma autonomi, divieto di utilizzo per decisioni automatizzate ad alto rischio come i sistemi di credito sociale.
Le garanzie tecniche e contrattuali
OpenAI sostiene che il suo approccio offre migliori protezioni contro usi inaccettabili rispetto ad altri laboratori di IA che hanno ridotto o rimosso le loro salvaguardie di sicurezza affidandosi principalmente alle politiche d’uso come misure di protezione nei deployment per la sicurezza nazionale. L’azienda ritiene che le sue linee rosse siano più applicabili perché il deployment è limitato esclusivamente al cloud, non ai dispositivi edge, mantiene funzionante il proprio stack di sicurezza nel modo ritenuto ottimale e mantiene personale autorizzato di OpenAI nel ciclo operativo.
Il contratto fa esplicito riferimento alle leggi e alle politiche esistenti in materia di sorveglianza e armi autonome, stabilendo che anche se tali leggi o politiche dovessero cambiare in futuro, l’uso dei sistemi OpenAI dovrà comunque rimanere allineato agli standard attuali riflessi nell’accordo. Questa clausola rappresenta un tentativo di ancorare le garanzie agli standard odierni indipendentemente dalle possibili evoluzioni normative future.
Limitando il deployment a API cloud, OpenAI sostiene di poter garantire che i suoi modelli non possano essere integrati direttamente in sistemi d’arma, sensori o altro hardware operativo. Il personale autorizzato di OpenAI “nel ciclo” implica percorsi di escalation governati, log di audit e capacità di revoca, caratteristiche che si allineano con i playbook di test e valutazione del Pentagono e con il NIST AI Risk Management Framework.
Le critiche e i punti controversi
Nonostante le rassicurazioni di OpenAI, l’accordo ha generato significative critiche. Mike Masnick di Techdirt ha sostenuto che l’accordo consente assolutamente la sorveglianza domestica, poiché afferma che la raccolta di dati privati sarà conforme all’Executive Order 12333 insieme a una serie di altre leggi. La questione sembra quindi rimanere irrisolta: cosa conta come sorveglianza di “massa”, quali soglie attivano revisioni potenziate e chi giudica indipendentemente le zone grigie quando raccolta e analisi avvengono lontano dalla vista pubblica.
Katrina Mulligan, responsabile delle partnership per la sicurezza nazionale di OpenAI, ha sostenuto che gran parte della discussione sul linguaggio contrattuale presuppone erroneamente che l’unica cosa che si frappone tra gli americani e l’uso dell’IA per la sorveglianza di massa domestica e le armi autonome sia una singola disposizione di policy d’uso in un singolo contratto con il Dipartimento della Guerra. Mulligan ha sottolineato che l’architettura di deployment conta più del linguaggio contrattuale, e limitando il deployment a API cloud, l’azienda può garantire che i modelli non possano essere integrati direttamente in sistemi d’arma, sensori o altro hardware operativo.
Lo stesso Altman ha ammesso su X che l’accordo è stato affrettato e ha generato significative reazioni negative contro OpenAI, tanto che Claude di Anthropic ha superato ChatGPT nell’App Store di Apple sabato. L’episodio sottolinea un calcolo strategico: accettare critiche pubbliche ora per stabilire un template per futuri contratti governativi di IA che altri possano seguire.
Il contesto: la rottura tra Anthropic e il Pentagono
La decisione di OpenAI arriva dopo il collasso delle trattative tra Anthropic e il Pentagono. L’azienda aveva dichiarato di aver tentato in buona fede di raggiungere un accordo nel corso di mesi di negoziati, chiarendo di supportare tutti gli usi legali dell’IA per la sicurezza nazionale ad eccezione di due strette eccezioni contestate: armi completamente autonome e sorveglianza di massa domestica.
Anthropic ha radicato le sue obiezioni in due ragioni principali. Prima, l’azienda ritiene che gli attuali modelli di IA di frontiera non siano sufficientemente affidabili per essere utilizzati in armi completamente autonome, e permettere l’uso dei modelli attuali in questo modo metterebbe in pericolo i combattenti americani e i civili. Seconda, Anthropic sostiene che la sorveglianza di massa domestica degli americani costituisce una violazione dei diritti fondamentali.
Trump ha reagito in modo estremamente duro, definendo Anthropic “left-wing nut jobs” su Truth Social e ordinando a ogni agenzia federale di cessare immediatamente l’uso della tecnologia Anthropic. Il Segretario alla Difesa Pete Hegseth ha designato l’azienda come “rischio per la catena di approvvigionamento della sicurezza nazionale”, un’etichetta tipicamente riservata ad avversari stranieri che costringerebbe i venditori e i contractor del Dipartimento della Difesa a certificare di non utilizzare i modelli di Anthropic.
Il CEO di Anthropic, Dario Amodei, ha definito la designazione come rischio per la catena di approvvigionamento “ritorsiva e punitiva” oltre che “senza precedenti”, notando che il decreto di Hegseth è il primo mai assegnato a un’azienda statunitense. Ha affermato che l’insistenza dell’azienda su due “linee rosse” contro armi di guerra e spionaggio sugli americani rappresenta una posizione a favore dei valori americani, dichiarando a CBS News che essere in disaccordo con il governo è la cosa più americana del mondo.
Claude utilizzato nell’attacco all’Iran nonostante il ban
Poche ore dopo che Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia Anthropic, le forze armate statunitensi hanno continuato a utilizzare il modello Claude dell’azienda in operazioni attive contro l’Iran. Secondo quanto riportato dal Wall Street Journal, Claude è stato impiegato durante il bombardamento congiunto USA-Israele su larga scala iniziato sabato, sottolineando quanto profondamente integrati siano diventati gli strumenti di IA avanzati nei flussi di lavoro della difesa statunitense.
Il comando centrale degli Stati Uniti (CENTCOM) in Medio Oriente ha utilizzato Claude per valutazioni di intelligence, identificazione di obiettivi e simulazioni di piani di battaglia, secondo fonti informate. L’utilizzo del modello nelle ore immediatamente successive al proclamato divieto dimostra la difficoltà strutturale di rimuovere rapidamente tali sistemi da ambienti mission-critical una volta che sono integrati nei cicli di pianificazione operativa.
Gli osservatori notano che l’utilizzo di Claude sulla scia del divieto proclamato dimostra che l’IA è così profondamente radicata nelle manovre militari che eliminarla potrebbe richiedere molto più dei sei mesi di periodo di transizione imposti da Trump. Non è la prima volta che gli Stati Uniti utilizzano l’IA di Anthropic per un’importante operazione militare: il WSJ aveva precedentemente riportato che Claude era stato utilizzato nella cattura del presidente venezuelano Nicolás Maduro, ora rimosso.
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione Roborock Saros 20: lavaggio a 100°, 36.000 Pa di aspirazione e cura nei dettagli
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

