Si accende (e non poco) lo scontro tra governo statunitense e aziende di intelligenza artificiale: nelle scorse ore, un tribunale federale della California ha dato ragione ad Anthropic, sospendendo temporaneamente le restrizioni imposte dall’amministrazione Trump.

Una decisione che, come spesso accade in questi casi, non rappresenta ancora la parola fine sulla vicenda, ma che segna comunque un passaggio importante, soprattutto per le implicazioni che potrebbe avere sul rapporto tra IA, difesa e libertà di espressione.

Offerta

Xiaomi Smart Band 10

36.99€ invece di 49.99€
-26%

Stop alle restrizioni dell’amministrazione Trump per Anthropic

Tutto nasce da un conflitto piuttosto acceso tra Anthropic (nota ai più per il chatbot Claude) e il Dipartimento della Difesa degli Stati Uniti. L’azienda, che negli ultimi anni ha ottenuto contratti da centinaia di migliaia di dollari con il Pentagono, si è rifiutata di concedere un utilizzo indiscriminato delle proprie tecnologie in ambito militare , in particolare per scenari come la sorveglianza di massa o l’impegno diretto in contesti di guerra.

Dall’altra parte, il Segretario della Difesa Pete Hegseth avrebbe spinto per ottenere maggiore libertà operativa, arrivando a minacciare la revoca dei contratti.

A seguito del rifiuto, l’amministrazione Trump aveva adottato misure piuttosto pesanti:

  • classificazione di Anthropic come rischio per la catena di approvvigionamento
  • divieto per le agenzie federali di utilizzare le sue tecnologie
  • esclusione delle forniture per il Dipartimento della Difesa

Provvedimenti che, come sottolineato dalla giudice Rita Lin, non possono essere utilizzati per punire o reprimere pareri sgraditi.

Proprio su questa base, il tribunale ha deciso di sospendere temporaneamente sia la designazione di rischio sia il divieto imposto alle agenzie federali, riaprendo di fatto la possibilità per Anthropic di collaborare con il governo.

Uno degli aspetti più interessanti della vicenda riguarda il piano costituzionale: Anthropic ha infatti accusato l’amministrazione Trump di aver agito su basi ideologiche, violando il Primo Emendamento della Costituzione degli Stati Uniti (quello che tutela la libertà di espressione).

Secondo l’azienda, l’utilizzo della classificazione rischio per la catena di approvvigionamento, solitamente riservata a realtà considerate pericolose per la sicurezza nazionale (spesso legate al contesto cinese), sarebbe stato improprio e finalizzato a esercitare pressione politica. Una linea difensiva che, almeno in questa fase preliminare, sembra aver convinto il tribunale.

Al di là del singolo caso, la decisione potrebbe avere implicazioni molto più ampie. Anthropic infatti, si è spesso distinta per un approccio più cauto allo sviluppo dell’intelligenza artificiale, con particolare attenzione alla sicurezza e all’impatto sociale delle proprie tecnologie; una posizione che, come dimostra questo caso, può entrare in contrasto con le esigenze di governi e apparati militari.

Il punto centrale diventa quindi uno: fino a che punto un’azienda può rifiutarsi di utilizzare le proprie tecnologie in determinati contesti, soprattutto quando sono in gioco interessi strategici nazionali?

È bene sottolineare che la decisione della giudice è temporanea e il caso potrebbe andare avanti nei prossimi mesi, anche in altri distretti (come quello di Washington).

Nel frattempo però, questa prima vittoria consente ad Anthropic di tirare un sospiro di sollievo e, sopratutto, di continuare a difendere la propria linea, una linea che punta a limitare gli utilizzi più controversi dell’IA. Saranno i prossimi sviluppi a dirci se si tratta di un semplice episodio isolato o dell’inizio di un confronto più ampio tra governi e aziende tech su etica, sicurezza e controllo dell’intelligenza artificiale.