In un modo o nell’altro si continua a parlare di OpenAI e ChatGPT. Dopo l’avvio dei test per gli annunci pubblicitari in ChatGPT, OpenAI ha annunciato l’arrivo di ChatGPT all’interno di GenAI.mil, la piattaforma gestita dal Dipartimento della Difesa degli Stati Uniti (il Pentagono) e utilizzata da circa tre milioni di persone tra personale militare e civile. Una notizia che solleva diverse considerazioni, tra cui quella sul rapporto tra intelligenza artificiale e applicazioni governative. Recentemente ha fatto discutere un’iniziativa simile, ovvero la decisione dell’amministrazione Trump di valutare l’utilizzo dell’AI per scrivere le future leggi federali.

Non solo ChatGPT

Il Pentagono, quindi, accoglie una versione personalizzata dell’assistente sviluppato da OpenAI. Il sistema opera in un’infrastruttura cloud governativa autorizzata, un ambiente chiuso che garantisce l’isolamento dei dati e impedisce ogni flusso informativo verso i modelli pubblici o commerciali. Secondo quanto comunicato, le informazioni elaborate rimangono interamente confinate nell’ecosistema del governo e non vengono impiegate per l’addestramento o il miglioramento dei prodotti destinati al grande pubblico.

GenAI.mil non è un progetto isolato. In questa piattaforma si trovano già altri modelli, tra cui la famiglia Gemini di Google e i modelli Grok di xAI che arriveranno nel corso di quest’anno. Il Dipartimento della Difesa punta a creare un ambiente dove i principali sviluppatori dei sistemi di intelligenza artificiale possano operare in parallelo grazie a un programma di investimenti che ha già generato contratti per duecento milioni di dollari distribuiti tra OpenAI, Google, xAI e Anthropic. L’intento è costruire uno spazio in cui l’adozione dell’intelligenza artificiale generativa diventi parte stabile delle procedure amministrative e operative del Pentagono.

Il ruolo di ChatGPT

Il ruolo di ChatGPT in questo contesto riguarda soprattutto le attività quotidiane. Il sistema è pensato per sintetizzare documenti complessi, analizzare policy interne, redigere materiali amministrativi, generare report e supportare la pianificazione. Tutto avviene attraverso un modello circondato da controlli che mirano a ridurre gli errori e garantire coerenza nelle risposte. La collaborazione con programmi istituzionali come quello avviato con la Defense Advanced Research Projects Agency e la partnership con l’ufficio del Chief Digital and Artificial Intelligence Office conferma la volontà del Pentagono di integrare strumenti avanzati in una struttura decisionale che richiede rapidità e affidabilità.

Il Dipartimento della Difesa non ha ancora comunicato date precise per l’adozione su larga scala, ma ha descritto GenAI.mil come una piattaforma orientata alla velocità, alla sicurezza e all’efficienza operativa. L’obiettivo è permettere a tutto il personale di sfruttare l’intelligenza artificiale per alleggerire la parte amministrativa del lavoro e migliorare la prontezza decisionale. La crescente quantità di documenti e flussi informativi che caratterizza la struttura militare statunitense rende questo tipo di strumenti sempre più necessario.

Il progetto rientra nell’iniziativa OpenAI for Government, il programma con cui la società intende sviluppare versioni dedicate dei propri modelli per le istituzioni pubbliche, definendo standard di sicurezza e modalità controllate di utilizzo all’interno degli apparati statali.

Segui l'Intelligenza Artificiale su Telegram, ricevi news e offerte per primo

Qualche considerazione

L’arrivo di ChatGPT su GenAI.mil conferma una tendenza ormai evidente. Le tecnologie di intelligenza artificiale sono una realtà con la quale, volenti o nolenti, confrontarsi. Queste tecnologie sono sviluppate da realtà private e vengono integrate sempre più rapidamente nei sistemi governativi. Questo vale non solo per OpenAI, ma anche per Google, xAI e Anthropic. Il Dipartimento della Difesa statunitense considera questi strumenti una risorsa per gestire la mole crescente di documenti, procedure e flussi informativi che caratterizzano un apparato con milioni di persone coinvolte.

È probabilmente impensabile non utilizzare queste tecnologie e, quindi, anche contemplarne l’uso in contesti così delicati come le attività del Dipartimento della Difesa di una delle nazioni più potenti al mondo. Ci sono però diversi elementi da considerare.

Il primo tema riguarda l’affidabilità. Gli assistenti generativi sono utili nella sintesi e nella gestione di grandi quantità di dati, ma mantengono margini di errore che richiedono supervisione umana costante. La presenza di controlli e ambienti isolati riduce i rischi, tuttavia il problema non scompare. La capacità di verificare ogni informazione prodotta dai modelli diventa quindi centrale, soprattutto in un contesto organizzativo che deve prendere decisioni rapide e coordinate. Senza ignorare il rischio di fidarsi ciecamente dell’intelligenza artificiale andando a validare le decisioni solamente per il fatto di essere state prodotte dall’AI.

La tecnologia è utile ma non può specie in un ambito così delicato come quello della difesa, sostituire del tutto la valutazione umana. E non può essere considerata come la panacea di tutti i mali sperando in un futuro (più distopico che reale) che il male, la sofferenza e i problemi del mondo scompariranno del tutto grazie all’intelligenza artificiale.

Un altro tema riguarda la capacità di controllo democratico. L’adozione di sistemi così complessi da parte di un’istituzione come il Pentagono apre un confronto sulla trasparenza e sulla necessità di definire limiti precisi all’uso dell’AI nelle attività governative. Anche perché c’è tutto il discorso della responsabilità. Se un’IA aiuta a scrivere una policy o a pianificare una logistica che poi fallisce, di chi è la colpa?

C’è infine la delicata questione della sovranità nazionale e della dipendenza da aziende private, per quanto in questo caso statunitensi. Se il Pentagono integra ChatGPT, Gemini, Grok e Claude nei suoi processi decisionali, crea un legame di dipendenza con aziende private (non governative) come OpenAI, Google, xAI e Anthropic. Cosa succede se una di queste aziende cambia policy, fallisce o subisce un attacco informatico critico? Se lo Stato delega la propria gestione amministrativa ad algoritmi di cui non possiede il codice sorgente completo le conseguenze potrebbero non essere così scontate.

Siamo solo all’inizio di una fase che sta esplorando le possibilità di strumenti inediti con i quali dovremo sempre più fare i conti. Anche a livello politico e amministrativo.