Il rapporto tra intelligenza artificiale e difesa entra in una fase particolarmente delicata, il Pentagono starebbe infatti valutando la possibilità di interrompere (o quantomeno ridimensionare in modo significativo) la propria partnership con Anthropic, la società nota per aver sviluppato il modello Claude. A rivelarlo è Axios, che cita un alto funzionario dell’amministrazione statunitense: al centro dello scontro vi sarebbero i limiti imposti da Anthropic sull’uso militare dei propri modelli di intelligenza artificiale.

Il nodo: qualsiasi scopo legittimo contro limiti etici

Secondo quanto emerso, il Dipartimento della Difesa statunitense starebbe negoziando con quattro grandi laboratori di IA affinché consentano l’utilizzo dei loro strumenti per tutti gli scopi legittimi, inclusi ambiti particolarmente sensibili come sviluppo di armamenti, raccolta di informazioni e intelligence, operazioni sul campo di battaglia, e attività in ambienti classificati.

Anthropic però non avrebbe accettato questa formulazione ampia, l’azienda continua infatti a considerare off limits due aree molto precise: sorveglianza di massa dei cittadini statunitensi e sviluppo o impiego di armi completamente autonome.

Secondo il funzionario citato da Axios, queste categorie includerebbero zone grige difficili da delimitare nella pratica, rendendo complesso per il Pentagono dover negoziare caso per caso o rischiare che Claude blocchi improvvisamente determinate applicazioni operative.

Non a caso, sarebbe stato chiarito che tutto è sul tavolo, compresa la possibilità di una rottura completa della collaborazione, pur prevenendo un’eventuale sostituzione ordinata.

Il caso Venezuela e l’uso di Claude

Le tensioni sarebbero esplose nelle ultime settimane anche in seguito al presunto utilizzo di Claude in un’operazione militare per catturare Nicolás Maduro in Venezuela.

Secondo la ricostruzione riportata, Claude sarebbe stato accessibile tramite una partnership con Palantir, azienda che integra il modello di Anthropic nelle proprie piattaforme utilizzate dal governo.

Un funzionario avrebbe riferito che un dirigente di Anthropic avrebbe contattato una controparte di Palantir per chiedere chiarimenti sull’utilizzo del modello durante il raid, operazione in cui sarebbero stati coinvolti scontri armati; questo avrebbe sollevato dubbi, dal punto di vista del Pentagono, sull’affidabilità del partner in contesti operativi sensibili.

Anthropic, dal canto suo, ha negato categoricamente di aver discusso l’uso di Claude per operazioni specifiche con il Dipartimento della Difesa o con partner industriali, sottolineando che le conversazioni in corso riguardano esclusivamente questioni di policy generali, in particolare i limiti su armi autonome e sorveglianza interna di massa.

Un contratto da 200 milioni di dollari e gli altri player

La situazione appare ancora più delicata se si considera che, la scorsa estate, Anthropic ha firmato un contratto da circa 200 milioni di dollari con il Pentagono; inoltre, Claude è stato il primo modello di intelligenza artificiale a essere integrato nelle reti classificate del Dipartimento della Difesa.

Un eventuale distacco non sarebbe dunque banale, anche perché, secondo lo stesso funzionario, sostituire rapidamente Claude potrebbe risultare complesso: le altre aziende sarebbero appena dietro per quanto riguarda alcune applicazioni governative specializzate.

Nel frattempo, modelli concorrenti come ChatGPT di OpenAI, Gemini di Google e Grok di xAI sarebbero già utilizzati in contesti non classificati e avrebbero accettato di rimuovere alcune restrizioni applicate agli utenti comuni per consentire un utilizzo più ampio da parte del Pentagono.

Secondo Axios, almeno una di queste aziende avrebbe già accettato lo standard per tutti gli scopi legittimi anche in ambito classificato, mentre le altre avrebbero mostrato una maggiore flessibilità rispetto ad Anthropic.

Uno scontro culturale oltre che contrattuale

Dietro la disputa però, si intravede anche uno scontro più profondo. L’amministratore delegato di Anthropic, Dario Amodei, ha più volte espresso pubblicamente forti preoccupazioni sui rischi legati allo sviluppo incontrollato dell’intelligenza artificiale.

Secondo alcune fonti inoltre, l’azienda starebbe affrontando un dibattito interno tra ingegneri e dirigenti proprio sulla collaborazione con il settore della difesa.

Anthropic continua comunque a ribadire il proprio impegno a supporto della sicurezza nazionale statunitense, sottolineando di essere stata la prima realtà di frontiera a portare i propri modelli su reti classificate e a fornire soluzioni personalizzate per clienti governativi.

Al momento non è stata presa alcuna decisione definitiva, tuttavia il messaggio che arriva da Washington è chiaro: il Pentagono vuole accesso pieno e non condizionato agli strumenti IA per qualsiasi scopo legittimo, mentre Anthropic sembra intenzionata a mantenere paletti molto rigidi su alcune applicazioni militari.

Si tratta di un passaggio cruciale non solo per i rapporti tra governo e aziende tecnologiche, ma anche per il futuro stesso dell’intelligenza artificiale in ambito bellico. La questione infatti, tocca temi enormi (etica, sicurezza, sovranità tecnologica, responsabilità operativa) che nei prossimi mesi potrebbero ridefinire gli equilibri tra big tech e apparati statali.

I nostri contenuti da non perdere: