Il settore dell’intelligenza artificiale si trova ad affrontare un nuovo collo di bottiglia, e stavolta non riguarda la potenza di calcolo dei chip o la disponibilità energetica dei data center: la sfida più urgente è diventata la carenza di chip di memoria.

Una situazione che ha spinto i principali attori del settore, da Huawei a Nvidia passando per DeepSeek, a sviluppare soluzioni alternative per massimizzare l’efficienza delle risorse disponibili, dando vita a quella che si sta configurando come una vera e propria guerra tecnologica.

Offerta

MacBook Air 13'', M4 (2025), 512GB

1060€ invece di 1199€
-12%

Le strategie dei principali produttori

A confermare la portata del problema è stato lo stesso Brad Lightcap, COO di OpenAI, che di recente ha dichiarato:

“Il più grande collo di bottiglia attuale nell’espansione dell’infrastruttura AI è la carenza di chip di memoria. L’industria AI ha superato il fenomeno della carenza di energia che era la preoccupazione principale negli ultimi due anni”. Un cambio di paradigma significativo, che sposta l’attenzione dalla questione energetica, fino a poco tempo fa considerata il limite principale per la crescita del settore, verso un problema di natura diversa ma altrettanto complesso da risolvere.

La potenza computazionale è cruciale per i modelli AI di grandi dimensioni, e le aziende devono trovare il modo di utilizzare efficientemente i SoC di memoria per bilanciare prestazioni e costi. Il problema è particolarmente sentito dai produttori cinesi, che oltre a dover fare i conti con la carenza globale di chip si trovano a gestire le conseguenze dei controlli tecnologici imposti dagli Stati Uniti.

Le soluzioni sviluppate dai vari produttori seguono approcci diversi. Huawei ha lanciato lo scorso anno UCM (Unified Cache Manager), un sistema che gestisce la memoria in modo intelligente, suddividendo e archiviando i dati in base alla loro importanza invece di conservare tutto nello stesso posto.

Il vantaggio principale di questo approccio è duplice perché da un lato minimizza l’utilizzo dei costosi chip HBM, dall’altro massimizza lo sfruttamento degli SSD, che hanno costi decisamente inferiori.

DeepSeek ha scelto una strada ancora più radicale, ripensando l’architettura stessa dei propri modelli AI. Invece di spostare la memoria o comprimerla a posteriori, l’azienda sta progettando i suoi modelli in modo che possano ricordare meno informazioni fin dall’inizio.

Nvidia, dal canto suo, ha introdotto ICMSP, una piattaforma di gestione della memoria pensata specificamente per l’inferenza AI. Il sistema consente di archiviare la memoria esternamente, espandendo di fatto il limite della memoria GPU verso dispositivi di storage esterni. La soluzione permette alle operazioni AI di continuare anche dopo che la capacità di memoria interna è esaurita, aggirando i limiti fisici dell’hardware attraverso un’architettura distribuita.

Una corsa che non accenna a fermarsi

Al di là delle singole soluzioni tecniche, quello che emerge è un settore in rapida evoluzione dove la capacità di gestire efficientemente le risorse sta diventando un fattore competitivo sempre più importante. Le aziende che riusciranno a sviluppare le tecnologie di efficienza della memoria più efficaci potrebbero trovarsi in una posizione di vantaggio significativo, soprattutto in uno scenario di carenza prolungata.

Resta da vedere quale approccio si rivelerà più efficace nel lungo periodo: se la gestione intelligente della cache di Huawei, il ripensamento architetturale di DeepSeek o l’espansione verso lo storage esterno di Nvidia. Nelle prossime settimane ne sapremo sicuramente di più su questo fronte, con nuove tecnologie e strategie che proveranno ancora una volta a rispondere a una domanda di potenza computazionale che continua a crescere più rapidamente dell’offerta di chip di memoria.