Il tema della sostenibilità degli attuali ritmi folli a cui sta procedendo l’industria dell’intelligenza artificiale è ormai all’ordine del giorno, quasi di pari passo con le notizie in merito alla costruzione di nuovi datacenter o a quella di investimenti miliardari (spesso circolari). In questo contesto un numero crescente di figure di spicco nell’industria tecnologica e non solo stanno fornendo dichiarazioni ed esprimendo opinioni in merito.
È il caso della notizia di oggi: durante un’intervista al podcast Decoder di The Verge, il CEO di IBM, Arvind Krishna, ha lanciato un monito sul ritmo con cui l’industria sta costruendo enormi infrastrutture dedicate all’intelligenza artificiale. Secondo il dirigente, i costi del cosiddetto AI buildout stanno diventando così elevati da rendere praticamente impossibile raggiungere la redditività.
Indice:
Il CEO di IBM ritiene che l’attuale modello economico dell’industria AI non è sostenibile
Krishna ha stimato che, al ritmo attuale, l’industria globale dell’IA stia avviando progetti che, nel complesso, comportano un impegno finanziario cumulativo di circa 8.000 miliardi di dollari. Una cifra che, per essere sostenibile, richiederebbe 800 miliardi di profitti annuali e questo solo per coprire il costo del capitale investito.
Le stime si basano sugli attuali costi di costruzione e di gestione dei data center, sulla sostituzione dell’hardware e sui consumi energetici. Krishna ha spiegato che riempire un singolo impianto da un gigawatt di potenza richiede circa 80 miliardi di dollari in infrastruttura e hardware di calcolo. Il problema, ha aggiunto, è che ormai numerose aziende stanno pianificando strutture con capacità nell’ordine delle decine di gigawatt – e in alcuni casi persino oltre i 100 gigawatt ciascuna.
Nel corso dell’intervista, il CEO di IBM ha anche sottolineato come i data center dedicati all’IA debbano affrontare cicli di rinnovo hardware di circa cinque anni, dovuti al rapido avanzamento tecnologico. Questo comporta un effetto di spesa ricorrente e cumulativa, con la necessità di “svuotare e riempire di nuovo” le strutture a intervalli regolari.
“Devi utilizzare tutto entro cinque anni, perché poi devi buttarlo e sostituirlo,” ha spiegato Krishna, evidenziando come il deprezzamento dei chip acceleratori e dei server specializzati sia uno degli aspetti più sottovalutati dagli investitori.
L’incognita dell’efficienza e della bassa probabilità di raggiungimento dell’AGI
A questo si aggiunge che, nonostante i progressi nei modelli linguistici di grandi dimensioni (LLM), Krishna ha stimato che le attuali architetture abbiano tra lo 0 e l’1% di probabilità di raggiungere l’AGI, l’intelligenza artificiale generale, vera stella polare dell’intera industria, senza nuove forme di integrazione della conoscenza. In altre parole, i sistemi di oggi rischiano di diventare obsoleti prima ancora di raggiungere l’obiettivo che ne giustifica l’enorme investimento.
Crescono le perplessità nel mercato finanziario
Il timore che le big tech stiano sopravvalutando la sostenibilità dei propri progetti è condiviso anche da diversi investitori. Il noto finanziere Michael Burry ha espresso preoccupazioni simili, chiedendosi se i colossi del cloud potranno continuare ad ammortizzare i costi su periodi più lunghi mentre la crescita dei modelli impone il ritiro accelerato delle vecchie GPU.
Insomma, come anticipato in apertura, le osservazioni di Krishna arrivano in un momento in cui giganti come Microsoft, Google e OpenAI stanno annunciando progetti infrastrutturali senza precedenti, con piani per campus da decine di gigawatt di potenza. A titolo di paragone, OpenAI avrebbe già pianificato un’infrastruttura con un consumo potenziale equivalente a quello di interi paesi, come l’India.
Secondo Krishna, il problema non è solo tecnico ma sistemicoovvero che per sostenere tali investimenti, le aziende dovranno dimostrare che i prodotti e i servizi basati sull’IA generano ritorni economici proporzionati alla scala delle loro spese, qualcosa che ancora non si è verificato, soprattutto per aziende come OpenAI che faticano a monetizzare i propri prodotti e che, attualmente, si ritrova in una fase di emergenza (il cosiddetto codice rosso) dopo il lancio di Gemini 3.
“L’IA generativa potrà aumentare la produttività delle imprese,” ha concluso, “ma la relazione tra scala fisica e ritorno economico deve ancora essere dimostrata.”
Potrebbero interessarti anche:
- Perplexity in tribunale: RTI e Medusa avviano la prima causa italiana sul copyright dell’IA
- Anthropic accelera verso la Borsa e potrebbe battere OpenAI nell’IPO
- OpenAI nella bufera: la cancellazione dei set di dati pirata potrebbe costare caro all’azienda
- Datacenter AI nello spazio entro 5 anni: la profezia di Elon Musk non convince il CEO di NVIDIA
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione Reolink Elite Floodlight WiFi: telecamera di sicurezza a prova di Lupin
- 💻 Scegli bene e punta al sodo: ecco le migliori offerte MSI notebook business Black Friday 2025
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

