La crescente integrazione dell’intelligenza artificiale nelle infrastrutture governative e militari statunitensi continua a generare tensioni tra aziende tecnologiche e istituzioni federali, negli ultimi anni infatti diversi sviluppatori di modelli IA hanno dovuto confrontarsi con richieste sempre più pressanti da parte della autorità, specialmente in ambito difesa, con implicazioni etiche, politiche e strategiche tutt’altro che secondarie.

Proprio in questo contesto si inserisce la recente decisione del Dipartimento della Difesa degli Stati Uniti di classificare la società di ricerca sull’intelligenza artificiale Anthropic come rischio per la catena di approvvigionamento, una designazione particolarmente significativa (e storicamente piuttosto rara) che potrebbe avere conseguenze importanti sull’intero ecosistema tecnologico che collabora con il governo federale.

Offerta

Novità! DREAME L10s Ultra Gen 3

Kit Robot Aspirapolvere e Lavapavimenti, Aspirazione da 25.000 Pa, Spazzola

421.62€ invece di 599€
-30%

Quello tra il Pentagono e Anthropic è uno scontro che potrebbe segnare il futuro dell’IA

Secondo quanto dichiarato ufficialmente dal Pentagono, l’etichettatura è entrata in vigore con effetto immediato e sarebbe stata comunicata direttamente ai vertici di Anthropic. Alla base della decisione vi sarebbe la posizione dell’azienda rispetto all’utilizzo militare del suo modello IA Claude.

Il Dipartimento della Difesa ha infatti spiegato che la scelta deriva dal tentativo di Anthropic di limitare l’uso del proprio sistema da parte delle forze armate, una posizione che, secondo l’agenzia, rischierebbe di compromettere la capacità dell’esercito di sfruttare tecnologie considerate strategiche.

In una dichiarazione ufficiale il Pentagono ha sottolineato:

Fin dall’inizio, si è trattato di un principio fondamentale: la possibilità per le forze armate di utilizzare la tecnologia per tutti gli scopi legittimi. Le forze armate non permetteranno a un fornitore di inserirsi nella catena di comando limitando l’uso lecito di una capacità critica e mettendo a rischio i nostri combattenti.

Si tratta di una posizione piuttosto netta che evidenzia come, per l’apparato militare statunitense, l’accesso pieno alla tecnologia IA rappresenti ormai un elemento centrale della sicurezza nazionale.

La decisione del Pentagono arriva dopo giorni di forti tensioni tra le parti, il CEO di Anthropic, Dario Amodei, avrebbe infatti comunicato al Segretario alla Difesa Pete Hegseth che l’azienda non intende permettere l’utilizzo di Claude per alcune applicazioni specifiche, tra cui la sorveglianza dei cittadini statunitensi e il potenziamento di sistemi d’arma autonomi.

Una posizione che rientra nella strategia più ampia della società, da sempre molto attenta ai temi della sicurezza e dell’etica nell’intelligenza artificiale, ma che evidentemente si scontra con le esigenze operative delle istituzioni militari.

Non a caso, già nei giorni scorsi Anthropic aveva fatto sapere di essere pronta a contestare legalmente la designazione di rischio per la catena di approvvigionamento.

Uno degli aspetti più rilevanti della vicenda riguarda le potenziali ripercussioni sull’intero settore tecnologico che lavora con il governo federale. In passato infatti, la classificazione di rischio per la catena di approvvigionamento è stata spesso applicata ad aziende straniere legate a Paesi considerati avversari degli Stati Uniti.

Il fatto che una simile etichetta venga ora applicata a una startup americana di primo piano nel settore dell’IA rappresenta dunque un precedente particolarmente significativo.

Secondo Joe Hoefer, responsabile IA della società Monument Advocacy, il punto chiave non è soltanto il provvedimento contro Anthropic, ma il precedente che potrebbe creare:

  • Washington potrebbe assumere un ruolo sempre più diretto nel dirimere i conflitti tra aziende IA e comunità della sicurezza nazionale
  • le società tecnologiche potrebbero essere spinte a scegliere con maggiore attenzione le condizioni delle collaborazioni governative
  • il rapporto tra sviluppo dell’IA e difesa militare potrebbe diventare un terreno di confronto sempre più acceso

Al momento non è ancora del tutto chiaro quale sarà l’impatto concreto della decisione del Pentagono, tuttavia, se la designazione dovesse tradursi in restrizioni effettive, le aziende che collaborano con il governo federale potrebbero essere costrette a interrompere l’utilizzo delle tecnologie di Anthropic.

In altre parole, lo scontro tra Pentagono e Anthropic potrebbe trasformarsi in uno dei primi grandi casi politici legati all’intelligenza artificiale generativa, con effetti potenzialmente duraturi su tutto il settore. Non ci resta che attendere per scoprire come evolverà la vicenda nelle prossime settimane.