Il rapporto tra Anthropic e il governo degli Stati Uniti si fa sempre più complesso e, come spesso accade in questi casi, anche piuttosto sfaccettato: nelle ultime ore sono infatti arrivate due decisioni giudiziarie con esiti opposti che, pur incidendo sullo stesso tema, delineano uno scenario tutt’altro che definitivo. Da un lato una sconfitta pesante sul fronte della difesa, dall’altro una vittoria che consente all’azienda di restare operativa all’interno del perimetro federale (almeno per ora).

Offerta

4 x Xiaomi Smart Tag

Smart Tracker, compatibile con Apple Find My e Google Android Find Hub

49.99€ invece di 59.99€
-17%

Resta l’etichetta di rischio per la catena di approvvigionamento su Anthropic

Partiamo dalla decisione più recente, arrivata dalla corte d’appello del District of Columbia, qui Anthropic aveva tentato di ottenere una sospensione immediata della designazione imposta dal Dipartimento della Difesa degli Stati Uniti, che ha classificato l’azienda come rischio per la catena di approvvigionamento (supply chain risk).

Si tratta di un aspetto tutt’altro che secondario, questa etichetta impone infatti agli appaltatori militari di certificare di non utilizzare Claude nei progetti legati al Pentagono, andando quindi a colpire in modo diretto uno dei principali ambiti di collaborazione tra settore pubblico e aziende IA.

La corte tuttavia, non ha accolto la richiesta dell’azienda. Secondo i giudici il danno lamentato da Anthropic appare, almeno in questa fase, prevalentemente di natura economica; dall’altra parte invece, entra in gioco la gestione di tecnologie considerate critiche per la sicurezza nazionale, soprattutto in un contesto internazionale tutt’altro che stabile. Non solo, è stato anche sottolineato come l’azienda non abbia dimostrato, almeno per il momento, una reale violazione della libertà di espressione.

C’è però un elemento che merita attenzione, il collegio ha riconosciuto che le questioni sollevate sono tutt’altro che marginali, disponendo un iter accelerato per il procedimento; tradotto, la partita è ancora aperta e potrebbe evolversi anche nel breve periodo.

Se a Washington il quadro si complica, è invece dalla California che arriva una boccata di ossigeno per Anthropic. A fine marzo infatti, un tribunale federale di San Francisco ha concesso un’ingiunzione preliminare contro l’amministrazione guidata da Donald Trump, bloccando il divieto più ampio sull’utilizzo di Claude all’interno delle agenzie federali.

Questo significa che, pur restano esclusa dai contratti con il Pentagono, l’azienda può continuare a collaborare con altre strutture governative, mantenendo quindi una presenza significativa nel settore pubblico statunitense. Una distinzione che, come spesso accade in ambito legale, fa tutta la differenza del mondo.

Alla radice della vicenda troviamo un nodo che, nel corso degli ultimi mesi, è diventato sempre più centrale nel dibattito tecnologico: l’utilizzo dell’intelligenza artificiale in ambito militare.

Da un lato, il Dipartimento della Difesa degli Stati Uniti chiedeva accesso senza particolari restrizioni ai modelli sviluppati da Anthropic per tutti gli impegni considerati leciti, dall’altro l’azienda puntava a introdurre limiti ben precisi, escludendo scenari come le armi completamente autonome e i sistemi di videosorveglianza su larga scala.

Il mancato accordo ha inevitabilmente portato allo scontro legale che, come abbiamo visto, si sta ora consumando su più fronti e con risultati non sempre coerenti tra di loro.

In definitiva, la situazione attuale restituisce un quadro piuttosto chiaro ma allo stesso tempo instabile: Anthropic resta tagliata fuori da uno dei settori più delicati (quello della difesa), ma continua a operare all’interno del governo federale grazie alla decisione californiana.

Non ci resta che attendere per scoprire come evolveranno i procedimenti in corso (soprattutto alla luce dell’iter accelerato deciso da Washington), e quale sarà il punto di equilibrio tra esigenze di sicurezza nazionale e limiti etici nell’utilizzo dell’intelligenza artificiale. Una questione che, come sempre più spesso accade, va ben oltre il singolo caso e potrebbe avere ripercussioni sull’intero settore nei mesi a venire.