Bella la tecnologia, l’innovazione e l’evoluzione dei sistemi digitali che siamo abituati a utilizzare ogni giorno sia per il lavoro che per il tempo libero. Ma qual è il loro impatto? Una domanda che sempre ha accompagnato il passaggio da una tecnologia a un’altra e che oggi si ripropone in tutta la sua urgenza con la diffusione dell’intelligenza artificiale.

Per quanto digitale e apparentemente priva di un impatto “materiale”, il funzionamento dei servizi di intelligenza artificiale necessita di server e tecnologie che, molto semplicemente, consumano energia. Un problema reale, concreto e potenzialmente allarmante. A lanciare l’allarme è uno studio condotto dalla Cornell University e pubblicato sulla rivista Nature Sustainability. La ricerca ha evidenziato come l’infrastruttura AI degli Stati Uniti rischia di diventare una delle principali fonti di impatto ecologico nei prossimi anni.

Entro il 2030, infatti, le emissioni di anidride carbonica generate dai datacenter che alimentano i modelli di intelligenza artificiale potrebbero raggiungere valori compresi tra 24 e 44 milioni di tonnellate l’anno. Si tratta di livelli paragonabili a quelli prodotti da 5 a 10 milioni di automobili. Un dato per certi aspetti paradossale se si considera l’impegno del settore automotive verso propulsori meno inquinanti.

Offerta

AI e sostenibilità: un problema (per ora) irrisolto

Quando si pensa all’inquinamento si è soliti considerare solamente le emissioni in atmosfera. In realtà i ricercatori della Cornell University hanno stimato anche un consumo idrico impressionante, compreso tra 731 e 1.125 milioni di metri cubi di acqua all’anno. Un volume paragonabile a quello utilizzato ogni anno da 6 a 10 milioni di persone negli Stati Uniti. Lo studio, realizzato in collaborazione con altri centri di ricerca internazionali, ha preso in esame i consumi legati ai datacenter già attivi e quelli in fase di espansione, applicando modelli di previsione fondati su dati finanziari, industriali e climatici.

A incidere in modo rilevante sull’impronta ecologica è anche la posizione geografica dei data center. Molti di essi, infatti, si trovano in aree soggette a siccità, come Arizona e Nevada, aggravando la pressione su risorse idriche già scarse. Al contrario, regioni del Midwest e alcuni stati noti per la produzione eolica, come Texas, Montana, Nebraska e South Dakota, offrirebbero un equilibrio migliore tra consumo energetico, disponibilità d’acqua e intensità carbonica della rete elettrica.

Le possibili prospettive future

Secondo gli autori dello studio, affidarsi alla sola decarbonizzazione delle reti elettriche non sarà sufficiente per contenere l’impatto. Anche nello scenario più ottimistico, con una rapida diffusione delle fonti rinnovabili, resterebbero comunque oltre 11 milioni di tonnellate di emissioni da compensare. Per raggiungere un bilancio neutro sarebbero necessari almeno 28 GW di nuova capacità eolica o 43 GW di solare. Lo studio sottolinea come il settore, senza interventi mirati, difficilmente riuscirà a centrare gli obiettivi di raggiungere le zero emissioni entro il 2030.

Tra le possibili soluzioni proposte emergono diversi interventi tecnici e strategici. Le tecnologie più promettenti includono sistemi di raffreddamento a liquido avanzato, l’ottimizzazione dell’utilizzo dei server e una gestione più dinamica dei carichi di lavoro. Insieme, queste misure potrebbero ridurre fino al 73% le emissioni di CO2 e dell’86% i consumi d’acqua rispetto agli scenari peggiori.

Lo studio evidenzia inoltre che senza una pianificazione congiunta tra aziende tecnologiche, enti regolatori e fornitori di energia, la corsa all’intelligenza artificiale potrebbe finire per compromettere gli obiettivi di sostenibilità globale. La concentrazione dei server in determinate regioni, per esempio, potrebbe sovraccaricare le reti elettriche locali o ridurre la disponibilità di acqua per usi civili e agricoli.

Una nuova rivoluzione industriale?

Viviamo in una fase per alcuni aspetti ancora primordiale della diffusione dell’intelligenza artificiale. Questa tecnologia, infatti, deve essere non solo regolamentata per evitare violazioni dei diritti, discriminazioni e impatti negativi sulla vita delle persone, ma anche essere gestita in maniera intelligente per arginare un problema cruciale per il futuro del pianeta. È evidente come entrino in gioco dinamiche di natura geopolitica e gli interessi degli attori in gioco prevalgono (come spesso accade) sulle necessità del territorio e delle persone che lo abitano. Non si tratta di demonizzare l’AI e rinunciarvi in nome di un futuro più ecologico, ma di rendere più sostenibile la diffusione di questa tecnologia. Qui entra in gioco la politica che dovrà affrontare con lungimiranza un fenomeno che altrimenti rischia di diventare ingestibile.

Per questo motivo i ricercatori raccomandano di indirizzare gli investimenti verso regioni più sostenibili e di rafforzare le infrastrutture in quelle aree, promuovendo collaborazioni tra pubblico e privato. A loro avviso, solo un’azione combinata su più fronti potrà evitare che l’AI diventi un nuovo fattore di pressione ambientale. Il rischio, altrimenti, è che l’innovazione, pur contribuendo alla crescita economica e all’efficienza produttiva, finisca per aggravare la crisi climatica già in corso e ad acuire le crisi e i problemi che le persone vivono in quelle regioni.

Se davvero quella dell’intelligenza artificiale è una nuova rivoluzione industriale, non ne vanno ignorati i rischi. La loro esistenza non delegittima la portata dei possibili benefici dell’AI, ma richiede una gestione attenta e oculata. Come (non) accadde con l’invenzione della macchina a vapore o con l’elettrificazione di massa con quelle rivoluzioni industriali che portarono sì sviluppo, ma anche inquinamento, sfruttamento delle risorse e profonde disuguaglianze. Oggi l’AI promette nuovi vantaggi, ma se non gestita rischia di amplificare il consumo energetico, la pressione sulle risorse naturali e la povertà e ad acuire povertà e disuguaglianze, aggravate dalla concentrazione di questo nuovo potere tecnologico.