Il vulcanico imprenditore tech Elon Musk ha fatto un annuncio clamoroso su X (ex Twitter): la sua azienda xAI ha acceso “il più potente cluster di training AI al mondo”, con l’obiettivo estremamente ambizioso di creare “l’intelligenza artificiale più potente del mondo per ogni metrica entro dicembre di quest’anno”.
L’intelligenza artificiale più potente al mondo è sempre più vicina
Il supercomputer, battezzato con il nome Memphis Supercluster, ha iniziato l’addestramento alle 4:20 del mattino (ora locale) della giornata di oggi con una potenza di fuoco impressionante: ben 100.000 GPU Nvidia H100 raffreddate a liquido e interconnesse tramite un singolo fabric RDMA (Remote Direct Memory Access).
Musk non ha lesinato complimenti al team di xAI, di X, di Nvidia e delle altre aziende coinvolte nel progetto per l’eccezionale lavoro svolto. E in effetti, con 100.000 GPU H100 su un unico fabric RDMA, il Memphis Supercluster può vantare a ragione il titolo di cluster di training AI più potente al mondo.
Nice work by @xAI team, @X team, @Nvidia & supporting companies getting Memphis Supercluster training started at ~4:20am local time.
With 100k liquid-cooled H100s on a single RDMA fabric, it’s the most powerful AI training cluster in the world!
— Elon Musk (@elonmusk) July 22, 2024
L’annuncio non arriva del tutto a sorpresa: già nei mesi scorsi Musk aveva espresso l’intenzione di aprire una “Gigafactory of Compute” entro l’autunno del 2025. La scelta di puntare sulle GPU H100 “Hopper” di Nvidia, invece di aspettare le prossime generazioni come le H200 o le ancora più avanzate B100 e B200 basate su architettura Blackwell (previste per fine 2024), si spiega con l’urgenza del progetto e con il fatto che il supercluster di Memphis è già realtà.
Come help xAI route photons as a elite fiber tech in Memphis! pic.twitter.com/JJShV75May
— xAI (@xai) July 15, 2024
A fornire gran parte dell’hardware ci ha pensato Supermicro, il cui CEO Charles Liang si è unito al coro di elogi per l’impresa, sottolineando la complessità del lavoro svolto dal team per centrare l’obiettivo “nel modo più perfetto, veloce, efficiente ed ecologico possibile”.
Ma a cosa servirà tutta questa potenza di calcolo? Musk non ha dubbi: ad “addestrare l’IA più potente del mondo per ogni metrica”. Sulla base delle sue precedenti dichiarazioni, si presume che le 100.000 GPU H100 di xAI saranno ora indirizzate all’addestramento di Grok 3, un Large Language Model (LLM) di nuova generazione che dovrebbe completare la fase di training entro dicembre di quest’anno.
Per dare un’idea di quanto sia potente il Memphis Supercluster, basti pensare che surclassa ampiamente, almeno in termini di scala, qualsiasi altro sistema nella classifica dei migliori cinquecento supercomputer più potenti al mondo. Almeno per il momento, colossi come Frontier (37.888 GPU AMD), Aurora (60.000 GPU Intel) e Microsoft Eagle (14.400 GPU Nvidia H100) impallidiscono al confronto.
L’annuncio di Musk segna un altro importante passo avanti nella corsa globale alle IA sempre più potenti e sofisticate. È del tutto lecito chiedersi se il magnate visionario riuscirà a mantenere la promessa di creare l’IA più potente del mondo entro fine anno. I prossimi mesi ci diranno se il suo obiettivo, tanto ambizioso quanto affascinante, potrà diventare realtà.
- Pubblicata la Strategia Italiana per l’Intelligenza Artificiale: i punti chiave
- OpenAI lancia GPT-4o Mini, un nuovo modello più smart ed economico
- Le traduzioni di DeepL migliorano col nuovo LLM: “surclassa ChatGPT-4 e Google Traduttore”
- Le nuove GPU NVIDIA GeForce RTX 50 potrebbero arrivare più tardi del previsto
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione Xiaomi Smart Band 9 Pro: un regalo last minute adatto a tutti
- 💻 Troppi portatili al Black Friday? Andate sul sicuro con queste offerte MSI
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo