Per un motivo o per un altro gli Stati Uniti stanno diventando il banco di prova per la regolamentazione dell’intelligenza artificiale. Negli ultimi mesi il dibattito si è intensificato su diversi fronti, dalla gestione dei dati utilizzati per addestrare i modelli fino all’impiego dell’AI in ambito militare e per la sicurezza nazionale. Da settimane a occupare l’attenzione dei media internazionali (e non solo) c’è la vicenda tra il Dipartimento della Difesa degli Stati Uniti (il Pentagono) e Anthropic, la società proprietaria di Claude.
L’ultimo (per ora) atto di questa vicenda vede un gruppo di oltre trenta dipendenti di OpenAI e Google DeepMind che ha depositato un documento legale a sostegno di Anthropic nella causa che la società ha avviato contro il Pentagono. La presa di posizione, emersa dai documenti presentati in tribunale, riguarda la decisione del Pentagono di classificare l’azienda di intelligenza artificiale come un rischio per la catena di approvvigionamento. Si tratta di una definizione che negli Stati Uniti viene generalmente utilizzata nei confronti di soggetti legati a potenze straniere ostili o a potenziali minacce per la sicurezza nazionale.
Un riepilogo di quanto accaduto
La presa di posizione di alcuni dipendenti di OpenAI e Google DeepMind a favore di Anthropic si inserisce in una vicenda iniziata nei giorni scorsi con lo scontro tra l’azienda di intelligenza artificiale e il Dipartimento della Difesa degli Stati Uniti. Tutto nasce dal rifiuto di Anthropic di permettere l’utilizzo dei propri modelli per determinate applicazioni richieste dal Pentagono, in particolare programmi di sorveglianza su larga scala e armi autonome basate sull’AI. La posizione dell’azienda ha riacceso il dibattito interno all’industria sull’uso dell’intelligenza artificiale in ambito militare, un tema già emerso anche nel confronto tra le principali società del settore.
Lo scontro è poi diventato più duro quando il Pentagono ha classificato Anthropic come rischio per la sicurezza della catena di approvvigionamento, una decisione che limita la possibilità per le agenzie federali di utilizzare le sue tecnologie e che ha spinto l’azienda a reagire sul piano legale. Secondo Anthropic si tratterebbe di una misura punitiva legata proprio al rifiuto di rimuovere alcune restrizioni etiche sull’uso dei propri modelli. La società ha quindi avviato una causa contro il Dipartimento della Difesa e altre agenzie federali per contestare la decisione e ottenere la revoca della classificazione.
Il documento legale a sostegno di Anthropic
Secondo quanto riportato nel documento, i firmatari ritengono che la decisione del governo rappresenti un uso improprio e arbitrario del potere pubblico e che possa avere conseguenze rilevanti per l’intero settore dell’intelligenza artificiale. Tra coloro che hanno sostenuto la posizione di Anthropic c’è anche Jeff Dean, responsabile scientifico di Google DeepMind e una delle figure più influenti nella ricerca sull’intelligenza artificiale.
Nel documento depositato in tribunale i dipendenti delle due aziende sottolineano che, qualora il Pentagono non fosse più stato soddisfatto delle condizioni contrattuali concordate con Anthropic, avrebbe potuto semplicemente interrompere l’accordo e rivolgersi a un altro fornitore di tecnologie di intelligenza artificiale. Invece, la scelta di classificare la società come rischio per la sicurezza della catena di approvvigionamento viene interpretata come una misura punitiva che potrebbe avere effetti più ampi sul settore.
La vicenda è diventata ancora più delicata perché, secondo quanto riportato nei documenti, il Dipartimento della Difesa avrebbe firmato un accordo con OpenAI poco dopo aver attribuito ad Anthropic quella classificazione. Questo passaggio ha generato proteste anche all’interno di OpenAI, dove alcuni dipendenti hanno espresso preoccupazione per il possibile impatto della decisione sul dibattito interno all’industria dell’intelligenza artificiale.
Anthropic ha nel frattempo avviato due cause legali contro il Dipartimento della Difesa e altre agenzie federali. Le azioni legali mirano a contestare la decisione del governo e a ottenere la revoca della classificazione che l’azienda ritiene ingiustificata.
Nel documento di sostegno presentato dai dipendenti di OpenAI e Google DeepMind viene evidenziato anche un aspetto più ampio che riguarda la regolamentazione dell’intelligenza artificiale. In assenza di una normativa pubblica chiara sull’uso di queste tecnologie, sostengono i firmatari, le limitazioni contrattuali e tecniche introdotte dalle aziende rappresentano uno degli strumenti più importanti per prevenire possibili abusi o utilizzi pericolosi dei sistemi di intelligenza artificiale.
Secondo questa interpretazione, se un’azienda venisse penalizzata per aver imposto limiti etici o tecnici all’utilizzo dei propri modelli, si creerebbe un precedente che potrebbe scoraggiare altre società dall’adottare restrizioni simili in futuro. Il timore espresso nel documento è che questo possa indebolire il dibattito aperto all’interno della comunità scientifica e industriale sui rischi e sui benefici dell’intelligenza artificiale.
La controversia mette quindi in luce una tensione crescente tra le esigenze dei governi e le scelte delle aziende tecnologiche. Da un lato le istituzioni pubbliche vedono nell’intelligenza artificiale uno strumento strategico per la sicurezza nazionale e per lo sviluppo militare. Dall’altro lato alcune società del settore stanno cercando di stabilire limiti chiari sull’utilizzo delle proprie tecnologie per evitare applicazioni considerate rischiose o eticamente problematiche.
Per molti osservatori non si tratta soltanto del rapporto tra una singola azienda e il governo federale, ma di una vicenda che potrebbe contribuire a definire il modo in cui verranno stabiliti i limiti e le responsabilità nell’uso dell’intelligenza artificiale nei prossimi anni.
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione Tineco Floor One S9 Artist Steam Pro: la lavapavimenti più bella ora ha anche il vapore
- 🚨 I migliori Notebook MSI Prestige, adatti per ogni esigenza
- 💻 La prova di Reolink Home Hub: un sistema di video-sorveglianza in locale, affidabile ed economico
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

