Le dinamiche tra OpenAI e i colossi del cloud si fanno sempre più intricate in un sistema circolare di aziende che continua a essere sempre più interdipendente, con tutti i pro e, soprattutto, i contro del caso.
L’azienda di Sam Altman ha appena annunciato una collaborazione rafforzata con Amazon che cambia parecchie carte in tavola: un investimento da 50 miliardi di dollari (15 immediati, 35 legati a condizioni non specificate) e un impegno complessivo sull’infrastruttura AWS che sale da 38 a oltre 138 miliardi.
Ma la parte davvero interessante dell’accordo non riguarda i soldi ma i chip, vera colonna portante di questa rivoluzione (con tutti i lati negativi del caso).
Indice:
Novità! DREAME L10s Ultra Gen 3
Kit Robot Aspirapolvere e Lavapavimenti, Aspirazione da 25.000 Pa, Spazzola
OpenAI abbraccia l’hardware proprietario di Amazon
Fino a ieri, il rapporto tra OpenAI e Amazon prevedeva l’utilizzo di GPU Nvidia ospitate nei data center AWS. L’intesa di novembre scorso parlava di GB200 e GB300, il meglio del catalogo Nvidia.
Stavolta invece OpenAI si impegna a usare circa 2 gigawatt di capacità sui chip Trainium, l’hardware che Amazon progetta e produce internamente. L’accordo include anche la prossima generazione Trainium4, attesa per il 2027.
È la prima volta che OpenAI punta pubblicamente su chip non-Nvidia a questa scala e il tempismo non sembra essere casuale.
Il rapporto con Nvidia mostra qualche crepa
Il fatto che OpenAI scelga di diversificare verso Amazon potrebbe essere il segnale di un rapporto con Nvidia meno granitico di quanto appariva. L’impegno da 100 miliardi con Jensen Huang potrebbe non concretizzarsi del tutto, o almeno non come previsto inizialmente.
Non a caso, proprio oggi è arrivato l’annuncio di una nuova intesa anche con Nvidia: 3 gigawatt di capacità per l’inferenza e 2 gigawatt per il training su sistemi Vera Rubin, la prossima generazione di hardware della società californiana. Nvidia partecipa anche come investitore con 30 miliardi di dollari.
Sembra che OpenAI stia giocando su più tavoli, tenendosi aperte tutte le porte. E probabilmente è proprio quello che sta facendo.
L’investimento di Amazon rientra in un round di finanziamento complessivo da 110 miliardi di dollari. Oltre ad Amazon (50 miliardi) e Nvidia (30 miliardi), c’è anche SoftBank con altri 30 miliardi.
Sul fronte della collaborazione tecnologica, le due aziende lavoreranno insieme a un ambiente di sviluppo “stateful”, in grado di mantenere memoria e contesto tra sessioni diverse, distribuito tramite Amazon Bedrock. AWS diventerà inoltre il distributore cloud esclusivo di OpenAI Frontier, la piattaforma enterprise pensata per orchestrare team di agenti AI in contesti aziendali reali. In cambio, OpenAI svilupperà modelli personalizzati per le applicazioni consumer di Amazon.
Microsoft resta al suo posto, almeno per ora
Con tutti questi nuovi accordi, viene spontaneo chiedersi che ne sarà del rapporto storico con Microsoft. OpenAI ha voluto chiarire subito che la collaborazione esistente non cambia ma il colosso di Redmond sembra sempre di più un partner scomodo al tavolo delle trattative.
Azure resta il cloud provider esclusivo per le API stateless, ovvero tutte le chiamate senza memoria di sessione continueranno a passare da lì. Anche i prodotti di prima parte, Frontier incluso, rimarranno ospitati su Azure. Il licensing esclusivo di Microsoft sulla proprietà intellettuale di OpenAI resta invariato, così come gli accordi commerciali e la revenue share.
OpenAI ha precisato che collaborazioni come quella con Amazon erano già contemplate negli accordi con Microsoft. Nessuno strappo alla regola, almeno ufficialmente, ma sembra evidente che gli equilibri tra questi colossi si stiano facendo sempre più complessi.
I nostri contenuti da non perdere:
- 🔝 Importante: Recensione Roborock Saros 20: lavaggio a 100°, 36.000 Pa di aspirazione e cura nei dettagli
- 💰 Risparmia sulla tecnologia: segui Prezzi.Tech su Telegram, il miglior canale di offerte
- 🏡 Seguici anche sul canale Telegram Offerte.Casa per sconti su prodotti di largo consumo

