A poche ore dalla scadenza dell’ultimatum lanciato dal Pentagono, si consuma uno dei passaggi più delicati, e potenzialmente dirompenti, nel rapporto tra big tech e difesa statunitense: Anthropic rifiuta le nuove condizioni imposte dal Dipartimento della Guerra, ribadendo le proprie linee rosse su sorveglianza di massa e armi autonome letali.

Una presa di posizione che non arriva in sordina, ma attraverso una dichiarazione pubblica dell’amministratore delegato Dario Amodei, pubblicata poche ore prima della deadline fissata dal Segretario alla Difesa Pete Hegseth, e che potrebbe avere conseguenze profonde sull’intero ecosistema dell’intelligenza artificiale applicata alla sicurezza nazionale.

Offerta

Novità! DREAME L10s Ultra Gen 3

Kit Robot Aspirapolvere e Lavapavimenti, Aspirazione da 25.000 Pa, Spazzola

455€ invece di 599€
-24%

Anthropic dice no alle nuove condizioni del Pentagono

Il nodo della questione è apparentemente semplice, ma in realtà estremamente complesso: il Pentagono avrebbe chiesto ai laboratori di IA di accettare contratti che prevedono l’autorizzazione a qualsiasi uso lecito dei modelli, inclusa la rimozione di specifiche misure di sicurezza oggi previste nei sistemi.

Mentre OpenAI e xAI avrebbero già accettato i nuovi termini, Anthropic ha deciso di non fare marcia indietro su due punti che considera fondamentali, ovvero nessuna sorveglianza interna di massa e nessuna arma completamente autonoma senza supervisione umana.

Secondo quanto riportato, il rifiuto avrebbe portato alla convocazione di Amodei alla Casa Bianca, con un ultimatum chiaro: adeguarsi entro la fine della giornata lavorativa di venerdì oppure affrontare conseguenze contrattuali rilevanti.

Nella sua dichiarazione, Amodei chiarisce un punto che molti di voi potrebbero trovare sorprendente, Anthropic non è contraria all’uso militare dell’intelligenza artificiale in sé, anzi, l’azienda rivendica di essere stata:

  • la prima a distribuire modelli di frontiera su reti governative classificate USA
  • la prima a portarli nei Laboratori Nazionali
  • la prima a fornire modelli personalizzati per clienti della sicurezza nazionale

Il modello Claude, spesso e volentieri citato come uno dei principali concorrenti nel panorama IA, è già utilizzato per analisi di intelligence, modellazione e simulazione, pianificazione operativa, operazioni informatiche e altre applicazioni mission-critical. Il punto dunque, non è l’IA sì o no per la difesa, il punto è come.

Anthropic distingue nettamente tra intelligence estera legittima e sorveglianza interna su larga scala. Secondo Amodei, l’IA moderna è in grado di aggregare dati pubblicamente disponibili (movimenti, navigazione web, relazioni), trasformandoli in un quadro estremamente dettagliato della vita di qualsiasi individuo.

E qui emerge una critica che va oltre il contratto: la normativa attuale, sostiene l’azienda, non è ancora allineata alla capacità dell’IA moderna. Ciò che è legale oggi potrebbe non essere compatibile con i valori democratici domani, soprattutto considerando la scalabilità automatica dei sistemi di frontiera.

Altro punto chiave sono le armi completamente autonome, cioè quelle che selezionano e ingaggiano bersagli senza alcuna supervisione umana.

Anthropic non esclude che possano diventare fondamentali in futuro, ma afferma che oggi i sistemi di frontiera non sono sufficientemente affidabili per assumersi un simile livello di responsabilità; le armi parzialmente autonome, già utilizzate in contesti come il conflitto in Ucraina, vengono considerate vitali per la difesa, ma togliere completamente l’essere umano dal ciclo decisionale è, secondo l’azienda, prematuro e rischioso.

Interessante notare che Anthropic si sarebbe anche offerta di collaborare con il Dipartimento della Guerra per migliorare l’affidabilità dei sistemi, proposta che però non sarebbe stata accettata.

Il confronto non si sarebbe limitato a dichiarazioni pubbliche, il Pentagono avrebbe valutato la dipendenza dei principali appaltatori dal modello Claude, considerato la designazione di Anthropic come rischio per la catena di approvvigionamento, e infine ipotizzato l’invocazione del Defense Production Act per imporre la rimozione delle misure di sicurezza.

Ed è qui che la situazione diventa particolarmente delicata, etichettare un’azienda americana come rischio per la sicurezza nazionale è una misura solitamente riservata ad avversari esteri, non a player domestici dell’innovazione tecnologica.

Amodei, nella sua dichiarazione, definisce queste minacce intrinsecamente contraddittorie: da un lato si ipotizza che l’azienda rappresenti un rischio, dall’altro si suggerisce che la sua tecnologia sia essenziale per la sicurezza nazionale.

Anthropic ha ribadito che, qualora il Dipartimento decidesse di interrompere i rapporti, garantirà una transizione graduale verso un altro fornitore, evitando interruzioni nelle operazioni critiche.

Una posizione che, come sempre accade in questi casi, va letta su più livelli:

  • tecnologico perché ridefinisce il perimetro di utilizzo dei modelli di frontiera
  • politico perché mette in tensione sicurezza nazionale e libertà civili
  • industriale perché evidenzia divergenze tra i principali attori dell’IA (con OpenAI e xAI su posizioni apparentemente più concilianti)

Negli ultimi tempi il dibattito su IA e difesa si è progressivamente intensificato, passando da collaborazioni discrete a confronti pubblici e ultimatum speciali; questa vicenda potrebbe rappresentare un precedente importante per tutti i laboratori di intelligenza artificiale che lavorano con governi e forze armate.

Bisognerà pazientare per capire se il Pentagono sceglierà la linea dura o se, alla luce del valore operativo già riconosciuto a Claude, si aprirà uno spiraglio per una rinegoziazione.

I nostri contenuti da non perdere: