Sembra incredibile, ma nel 2025 il problema dell’intelligenza artificiale non è più la carenza di GPU, quanto piuttosto la mancanza di energia per farle funzionare; è stato lo stesso Satya Nadella, CEO di Microsoft, a confermarlo durante un’intervista, svelando un dettaglio sorprendente sull’attuale infrastruttura IA del colosso di Redmond: parte delle GPU NVIDIA acquistate dall’azienda è oggi ferma in magazzino, semplicemente perché non esiste abbastanza potenza elettrica o spazio dei data center per utilizzarle.

Microsoft e l’IA: chip pronti ma nessuna presa libera

Nadella lo ha detto chiaramente: il problema non è la mancanza di chip, ma di energia, abbiamo GPU pronte ma non possiamo collegarle; una frase che sintetizza alla perfezione la nuova sfida dell’industria tecnologica, dopo anni di rincorsa ai chip, alle forniture e ai contratti miliardari con NVIDIA, Microsoft si trova oggi con un eccesso di hardware e un deficit strutturale. Servono data center nuovi, dotati di impianti elettrici e di raffreddamento adeguati, per poter alimentare e mantenere operative migliaia di GPU destinate all’IA generativa.

Non si tratta dunque di un problema produttivo, come accadeva durante la pandemia, bensì di un vincolo fisico e ambientale: i data center già esistenti non riescono più a sostenere la domanda di potenza necessaria per l’addestramento e l’esecuzione dei modelli di intelligenza artificiale di ultima generazione.

Le parole di Nadella arrivano in risposta indiretta di quelle di Jensen Huang, CEO di NVIDIA, che recentemente aveva dichiarato che non esisterà mai un eccesso di capacità di calcolo nei prossimi anni. Microsoft, al contrario, osserva che l‘eccesso di GPU è reale, e che il limite non è tecnico ma infrastrutturale.

Ogni nuova generazione di GPU, sia NVIDIA che AMD, presenta consumi sempre più elevati, un trend che rischia di mettere in crisi i piani di espansione delle big tech; le cosiddette AI Factory di nuova generazione, progettate per ospitare rack da 800 VDC, saranno fondamentali per risolvere questo collo di bottiglia, ma la loro costruzione richiede tempo, investimenti e soprattutto energia.

Il problema della disponibilità di energia è ormai uno dei temi più urgenti nell’industria dell’intelligenza artificiale, secondo diversi analisti la crisi elettrica potrebbe rallentare sensibilmente la crescita del settore nei prossimi anni.

Molte aziende stanno quindi studiando soluzioni alternative, tra cui micro reattori nucleari modulari e accordi per la produzione autonoma di energia rinnovabile. Persino OpenAI, partner di Microsoft, avrebbe già chiesto al governo statunitense di incrementare di 100 gigawatt l’anno la capacità elettrica nazionale per sostenere la domanda di calcolo dell’IA.

Sul fronte geopolitico, la Cina risulterebbe oggi avvantaggiata, grazie ai massicci investimenti in infrastrutture idroelettriche e nucleari che le consentono di sostenere una maggiore densità di calcolo a costi inferiori.

Durante la stessa intervista, Nadella e Sam Altman (CEO di OpenAI) hanno anche discusso del possibile futuro dell’hardware IA consumer; Altman immagina un mondo in cui i dispositivi personali potranno eseguire localmente modelli avanzati come GPT-5 o GPT-6, riducendo la dipendenza dai data center e abbassando i consumi energetici globali. Una prospettiva affascinante che, se concretizzata, potrebbe cambiare radicalmente la struttura economica del settore cloud.

Nel frattempo, cresce il dibattito attorno a una possibile bolla dell’IA, un fenomeno finanziario spinto da aspettative e investimenti forse eccessivi; tuttavia, come ricorda l’ex CEO di Intel Pat Gelsinger, un ridimensionamento del mercato non è ancora all’orizzonte.

In definitiva, la corsa all’intelligenza artificiale non si gioca più solo sul numero di GPU o sulla potenza dei modelli, ma sulla capacità di alimentare tutto questo sistema; Microsoft lo sa bene e, come molte altre big tech, sta cercando soluzioni per espandere la propria infrastruttura in modo sostenibile, ma i tempi saranno tutt’altro che brevi.