Uber rafforza la sua collaborazione con Amazon Web Services (AWS), integrando i chip Graviton e avviando una fase sperimentale con Trainium 3, l’acceleratore AI di AWS. Questa strategia segna un nuovo capitolo nell’adozione di hardware dedicato per potenziare servizi come il ride-matching, le consegne e la personalizzazione dell’esperienza utente.

La virata di Uber verso l’hardware AWS

Uber è tra le aziende attratte dalle capacità dei chip AI di Amazon. L’uso intensificato dei Graviton, CPU ARM ad alta efficienza energetica, e la sperimentazione con Trainium 3 per carichi AI complessi, rappresentano un cambiamento significativo.

Precedentemente, nel 2023, Uber aveva siglato accordi con Oracle e Google per distaccarsi dai propri data center. Ora, con le soluzioni AWS, Amazon consolida il suo vantaggio competitivo nel cloud e nelle infrastrutture AI, attirando anche Anthropic, OpenAI e Apple. Trainium è ormai un business da miliardi di dollari per Amazon.

La scelta di Uber risponde a una duplice esigenza: ottimizzazione dei costi operativi (consumo energetico ed efficienza) e prestazioni elevate per il training e l’inferenza di modelli AI.

Efficienza, AI e personalizzazione: gli obiettivi di Uber

La decisione di Uber mira a rendere più fluide le corse e le consegne, con Trainium impiegato per accelerare il training dei modelli AI.

La partnership estende una collaborazione già esistente, sottolineando l’importanza dell’hardware custom di Amazon nel supportare carichi di lavoro digitali complessi.

Uber intende migliorare il ride-matching, personalizzare l’esperienza dei clienti e ottenere un vantaggio competitivo nel settore della mobilità e dei servizi on-demand, grazie a componenti ad alta efficienza progettati su misura.

Trend globale: AWS e il dominio dei chip custom

La mossa di Uber si inserisce in un contesto più ampio. Trainium 3 ha iniziato la produzione su scala nel 2026, suscitando forte interesse tra grandi e medi clienti. Trainium e Graviton generano oltre 10 miliardi di dollari all’anno in ricavi, con una crescita a tre cifre.

Trainium 2 è completamente esaurito, e Trainium 3 ha già impegni totali previsti fino a metà 2026.

Nei centri di calcolo AWS, Project Rainier è il più grande cluster AI operativo al mondo, con oltre 500.000 chip Trainium 2 impiegati per addestrare il modello Claude di Anthropic. AWS offre anche i Trn3 UltraServers, che integrano Trainium 3, Graviton e Nitro su un unico server, garantendo una potenza di calcolo fino a 360 petaflop in FP8, oltre quattro volte superiore ai sistemi Trainium 2.

Impatto sul mercato e sulle strategie aziendali

La scelta di Uber di affidarsi a Graviton e Trainium 3 evidenzia una chiara preferenza per infrastrutture su misura, capaci di supportare carichi compute intensivi con efficienza e scalabilità.

Questo trend conferma il passaggio di molte aziende, inclusi i grandi nomi dell’AI generativa, verso soluzioni hardware proprietarie offerte da AWS o da altri hyperscaler.

Per Amazon, il messaggio è chiaro: il dominio dell’ecosistema cloud passa anche dai chip. La competizione si sposta sempre più verso l’hardware, dove prestazioni, costo e disponibilità sono leve strategiche.

In sintesi, con questa scelta Uber sottolinea l’importanza crescente di chip custom e architetture specialistiche per rispondere alle esigenze di scala, velocità e personalizzazione nei servizi digitali. Il mercato dell’infrastruttura cloud non è più solo software e servizi, ma un terreno di conquista anche a livello siliconico, dove AWS guida la trasformazione.