Microsoft ha annunciato il Maia 200, un nuovo chip custom per l’inferenza AI, presentato come il “silicon workhorse” destinato a potenziare l’intelligenza artificiale all’interno dei data center Azure. Questa mossa strategica mira a rafforzare l’autonomia tecnologica di Microsoft, riducendo la dipendenza da GPU di terze parti, in particolare da Nvidia. Il Maia 200 si inserisce in un percorso evolutivo che include il precedente Maia 100 e anticipa future innovazioni.
Maia 200: l'evoluzione del Maia 100
Il Maia 100, lanciato nel 2023, rappresentò il primo acceleratore AI proprietario di Microsoft, caratterizzato da oltre 100 miliardi di transistor e raffreddamento a liquido.
La produzione del suo successore, originariamente noto come “Braga”, ha subito ritardi, posticipando il lancio dal 2025 al 2026 a causa di modifiche progettuali richieste da OpenAI e di sfide organizzative. Il Maia 200 rappresenta dunque la denominazione definitiva di questa nuova generazione.
Obiettivi strategici: prestazioni, efficienza e sovranità tecnologica
Il Maia 200 è stato progettato per ottimizzare le prestazioni per watt nell’esecuzione di modelli di inferenza nei data center Azure. L’integrazione nativa con l’infrastruttura software di Microsoft e servizi come OpenAI e Copilot promette un’alternativa più efficiente ai GPU tradizionali, spesso gravati da costi elevati e limitazioni di disponibilità.
Questa iniziativa si allinea a una strategia più ampia che vede Microsoft impegnata nello standardizzare le interconnessioni tra acceleratori AI attraverso la partecipazione al gruppo UALink, insieme a colossi come Google, AMD e Intel. Parallelamente, Microsoft continua a espandere la sua offerta infrastrutturale, lanciando VM Azure NDv6 GB300 equipaggiate con GPU Nvidia Blackwell Ultra.
Il contesto competitivo e il perimetro del silicio personalizzato
La corsa all’hardware per l’AI vede protagonisti anche altri grandi player: Google con le sue TPU (Trillium e Ironwood), Amazon con i chip Trainium e Inferentia, e Meta con progetti come MTIA. Il Maia 200 si posiziona come la risposta di Microsoft in questo scenario, con l’obiettivo di unire efficienza operativa e controllo diretto sulla catena del valore AI.
Nonostante i ritardi nella roadmap iniziale, Microsoft ha riorganizzato i suoi piani, prevedendo Maia 280 per il 2027 e Clea non prima del 2028, bilanciando velocità di rilascio e ambizioni prestazionali.
Trend e impatto per i cloud hyperscaler
Il lancio del Maia 200 consolida il trend verso infrastrutture AI verticalmente integrate. Per Microsoft, i vantaggi sono molteplici: la potenziale riduzione dei costi legati alle GPU esterne e la costruzione di una piattaforma più resiliente alle fluttuazioni di mercato e della supply chain. Questo rafforza ulteriormente la posizione di Azure nel mercato dei servizi AI, offrendo ai clienti enterprise soluzioni performanti, efficienti e scalabili. Il successo del Maia 200 sarà cruciale per unificare l’offerta AI di Microsoft su un’infrastruttura proprietaria e ottimizzata. La competizione nell’hardware AI prosegue, con Microsoft che, grazie al Maia 200, pone le basi per un’architettura cloud incentrata su silicio co-progettato e software avanzato.