Da un sito industriale teatro di un fallimento a una delle più ambiziose infrastrutture tecnologiche mai costruite; Microsoft trasforma Mount Pleasant, in Wisconsin, in un nuovo data center per l’intelligenza artificiale.

Si chiama Fairwater, ed è il datacenter AI che vuole superare, per potenza e capacità, ogni supercomputer mai realizzato. Scopriamolo nel dettaglio.

Offerta

DREAME H15 Mix 7-In-1

619€ invece di 899€
-31%

Il cuore della strategia AI di Microsoft batte nel Midwest

Microsoft ha annunciato ufficialmente la nascita di Fairwater, un datacenter che sorge su un’area precedentemente destinata al progetto, fallito e abbandonato, di Foxconn.

Un risvolto ironico di come un luogo teatro di un fallimento industriale, ora punta a diventare il simbolo del rilancio tecnologico per ridefinire gli standard del calcolo ad alte prestazioni.

Con un’estensione di 315 acri e tre edifici principali per un totale di oltre 111.000 metri quadrati, Fairwater è destinato a ospitare una quantità impressionante di hardware: centinaia di migliaia di GPU NVIDIA Blackwell, tra le più avanzate sul mercato.

Ogni server GB200 NVL72 integra 72 GPU collegate in rete tramite NVLink e NVSwitch, con una larghezza di banda di 1,8 TB/s e ben 14 TB di memoria condivisa. In pratica, ogni singolo rack può operare come un acceleratore AI unificato, capace di elaborare fino a 865.000 token al secondo.

Secondo Microsoft, le prestazioni complessive di Fairwater saranno dieci volte superiori rispetto agli attuali supercomputer exascale.

microsoft fairwater

Infrastruttura colossale ma con la sostenibilità al centro

Le dimensioni di Fairwater non impressionano solo per la potenza computazionale. L’intero complesso è un’opera di ingegneria su scala monumentale: oltre 46 miglia di fondazioni profonde, 26 milioni di libbre di acciaio strutturale e 120 miglia di cavi sotterranei sono solo alcuni dei numeri che danno l’idea della portata del progetto.

Ma ciò che distingue Fairwater da altri datacenter è l’approccio alla sostenibilità.

Microsoft ha progettato un sistema di raffreddamento a liquido in circuito chiuso che copre oltre il 90% del carico operativo, riducendo al minimo l’uso di acqua dolce. Solo in condizioni climatiche estreme si fa ricorso a raffreddamento ad aria, e anche in quel caso il consumo idrico resta contenuto.

L’obiettivo è quello di creare infrastrutture AI ad alta efficienza energetica, in grado di sostenere modelli sempre più complessi senza un impatto ambientale proporzionale, un tema delicatissimo attorno alla sostenibilità dell’AI.

Una rete globale di datacenter

Fairwater non sarà un’eccezione isolata. Microsoft ha già annunciato un secondo datacenter in Wisconsin, con un investimento aggiuntivo di 4 miliardi di dollari, e sta replicando il modello anche in Norvegia e nel Regno Unito.

Tutte queste infrastrutture entreranno a far parte della rete Azure, che oggi comprende oltre 400 datacenter in 70 regioni nel mondo.

La wide-area network (WAN) proprietaria di Azure permette di collegare risorse di calcolo distribuite e orchestrarle come un unico supercomputer virtuale, capace di scalare automaticamente in base ai carichi di lavoro.

Un’architettura che Microsoft definisce come “cloud distribuito intelligente”, concepita per sostenere le esigenze dell’AI generativa su scala planetaria.

Fairwater sarà uno dei nodi principali di questa rete e uno dei primi pensati sin dall’inizio per i workload AI su vasta scala.

microsoft fairwater

I banchi dati su scala exabyte promettono prestazioni da capogiro, con milioni di operazioni al secondo e spazi di archiviazione equivalenti a cinque campi da football.

Peraltro, spiega l’azienda, la scelta del Wisconsin, una zona finora marginale nella mappa globale del cloud, non è casuale; infatti, oltre a beneficiare di ampi spazi e condizioni logistiche favorevoli, rappresenta una rivincita simbolica per l’America manifatturiera.

In questa area, dunque, il colosso di Redmond realizza un’infrastruttura progettata per durare e adattarsi nel tempo in quanto Fairwater non è pensato per un ciclo breve, ma come un hub flessibile e scalabile, in grado di evolversi insieme ai modelli AI e alle esigenze del mercato del futuro.