Al CES 2026, la Physical AI – nota anche come embodied AI – è diventata una presenza tangibile. Il termine descrive sistemi di intelligenza artificiale che operano nel mondo fisico grazie a sensori, attuatori e modelli decisionali in grado di interagire con l’ambiente reale: dai robot umanoidi ai droni, dai veicoli autonomi ai dispositivi indossabili.
Secondo Kirsten Korosec di TechCrunch, il padiglione della mobilità al CES ha fotografato questa trasformazione: gli espositori non erano più semplicemente case automobilistiche, ma aziende di robotica, veicoli autonomi, chip e software che incarnano la Physical AI.
Hyundai ha calamitato l’attenzione non con automobili, ma con una serie di robot – tra cui una versione avanzata dell’Atlas di Boston Dynamics – e innovazioni come MobEd, una piattaforma elettrica a quattro ruote in produzione già nel 2026.
Mobilità e robotica industriale: una frontiera in espansione
Il concetto di Physical AI si estende oltre al mondo dei veicoli e riguarda anche robot per l’agricoltura, gli stabilimenti produttivi, i droni e dispositivi indossabili. Amnon Shashua, cofondatore di Mobileye, ha liquidato le critiche come “hype” paragonandole alla bolla di Internet del 2000, affermando che ciò non nega la realtà e il potenziale del settore.
Tecnologie e piattaforme per l’adozione su larga scala
TechCrunch segnala che Nvidia mira a diventare la «Android della robotica», mettendo a disposizione un ecosistema completo di modelli, simulazioni, tool e hardware edge dedicati alla Physical AI. Inoltre, articoli come quello di Domain-b evidenziano come Nvidia abbia presentato Alpamayo – un’architettura di AI reasoning per la mobilità autonoma – e il chip Vera Rubin, pensato per un’inferenza efficiente.
Hyundai e Boston Dynamics proseguono con un’operazione speculare: evolvono il robot Atlas verso applicazioni industriali reali, integrandolo con modelli di base di DeepMind e mirando a un dispiegamento nella propria catena di montaggio entro fine decennio.
Dal virtuale al reale: traghettare l’AI
Rebecca Bellan di TechCrunch argomenta che il 2026 segna un punto di svolta: l’AI sta passando da hype a pragmatismo. È un decennio che vede l’intelligenza distribuita su dispositivi fisici, nei robot e nei wearable, oltre i confini dei cloud e degli schermi.
Le sfide della Physical AI
La Physical AI ridefinisce il concetto di automazione, trasformando il modo in cui lavoriamo e viviamo. I robot industriali e i veicoli autonomi promettono maggiore efficienza, mentre i dispositivi indossabili abilitano interazioni quotidiane potenziate. Tuttavia, emergono criticità: costi di sviluppo elevati, complessità di integrazione e questioni etiche legate alla fiducia in sistemi decisionali automatizzati.
Inoltre, l’introduzione di AI capaci di agire nel mondo reale impone nuovi paradigmi di governance e trasparenza: sarà essenziale garantire affidabilità, accountability e adattamento alle normative emergenti in materia.
Questa evoluzione segna un cambiamento di paradigma: l’intelligenza artificiale esce dalla dimensione digitale per interagire con il mondo fisico, aprendo scenari industriali, urbani e personali inediti e ricchi di potenzialità. L’entusiasmo non basta: il vero banco di prova sarà la capacità di trasformare l’hype in risultati concreti, sicuri e sostenibili.