Financialounge.com

Nvidia al CES 2026: Vera Rubin e non solo

Jensen Huang a Las Vegas disegna una visione ben precisa con tre annunci: controllare l'intera filiera dell'intelligenza artificiale, anche nel mondo fisico

06 Gen 2026 - 14:08

A ben guardare, il palco del Consumer Electronics Show ha ospitato non una serie di annunci separati ma la presentazione di un ecosistema. Nvidia ha infatti mostrato tre tasselli di una strategia che va ben oltre i chip per i datacenter, composta dall'architettura Rubin (già in produzione), Alpamayo per i veicoli autonomi capaci di comprendere situazioni complesse, e un'intera piattaforma per la robotica generalista.Sono tre prodotti che, presi insieme, rivelano l'ambizione di Jensen Huang: costruire l'infrastruttura dominante per l'intelligenza artificiale "embodied", quella cioè che esce dai server e agisce nel mondo fisico. E se Android ha reso Google il punto di riferimento per gli smartphone, pur lasciando spazio ai costruttori, Nvidia pare intenzionata a replicare il modello nell'IA fisica con hardware proprietario, software "aperto" e dipendenza strutturale.

RUBIN: LE FONDAMENTA
L'architettura Rubin, dedicata all'astronoma Vera Rubin, rappresenta il punto di partenza. Huang ha annunciato che i chip sono già in piena produzione e vedranno un'accelerazione nella seconda metà dell'anno. Non si tratta quindi di un prototipo ma di hardware che sta già uscendo dalle fabbriche e che sarà alla base dei sistemi IA di OpenAI, Anthropic, Amazon Web Services e praticamente di tutti i principali fornitori di servizi cloud. "Vera Rubin è progettata per affrontare questa sfida fondamentale che abbiamo: la quantità di calcolo necessaria per l'IA sta salendo alle stelle", ha dichiarato Huang dal palco.L'architettura, composta da sei chip progettati per lavorare insieme, promette un salto prestazionale significativo: elabora i dati tre volte e mezzo più velocemente della generazione precedente (Blackwell) quando si tratta di addestrare nuovi modelli, e cinque volte più rapidamente quando i modelli devono generare risposte.

L'EFFICIENZA E LA MEMORIA
Ma il dato forse più rilevante per chi investe in datacenter riguarda l'efficienza energetica: parliamo di otto volte in più di capacità di elaborazione per ogni watt consumato. In un momento in cui i costi energetici stanno diventando un problema sia economico che politico, questo miglioramento non è solo una questione di performance ma una necessità per un'industria che Huang stima assorbirà tra i 3 e i 4 trilioni di dollari nei prossimi cinque anni.Al centro dell'architettura c'è la nuova unità di calcolo chiamata Vera, progettata specificamente per il ragionamento agentico. La scelta di aggiungere questo componente dedicato riflette un cambio di esigenze: i sistemi agentici devono infatti gestire conversazioni lunghe, mantenere il contesto attraverso operazioni complesse, pianificare sequenze di azioni e valutare alternative in modo iterativo. Tutte operazioni che richiedono un tipo di elaborazione diverso da quello tradizionale, più adatto a logiche che simulano il ragionamento umano.

ALPAMAYO: QUANDO L'AUTO CAPISCE LA STRADA
Il secondo tassello della strategia di Nvidia  si chiama Alpamayo, ed è una famiglia di modelli di intelligenza artificiale pensata per portare il ragionamento nella guida autonoma. L'approccio segna un cambio di paradigma rispetto ai sistemi attuali: non più semplice riconoscimento di oggetti e pattern comportamentali, ma comprensione del contesto e valutazione delle conseguenze, superando così le attuali "zone grigie" dove i sistemi di guida autonoma attuali mostrano ancora i loro limiti.Come ha spiegato Huang durante la presentazione, "l'obiettivo non è simulare il comportamento umano ma replicarne il processo decisionale". Alpamayo non si limita infatti a trasformare gli input dei sensori in comandi per sterzo e freni; costruisce piuttosto una catena di ragionamento che porta a una decisione. Invece di affidarsi a una mappa infinita di casi d'uso precodificati, il sistema scompone il problema, valuta le opzioni e seleziona quella più sicura.Per rendere praticabile questo approccio, Alpamayo è stato pensato come un ecosistema aperto, con modelli, strumenti di simulazione e grandi quantità di dati di guida raccolti in condizioni diverse. L'idea è permettere agli sviluppatori di addestrare e testare i sistemi combinando mondo reale e mondo sintetico, verificando come l'IA reagisce quando le regole non bastano. È un passaggio chiave per l'industria dell'automotive, che da anni cerca di colmare il divario tra i test controllati e il caos delle strade reali.

ISAAC, GR00T E LA ROBOTICA GENERALISTA
Il terzo annuncio è forse il più ambizioso e rivela dove Nvidia intenda giocare la partita nel lungo termine. L'azienda ha costruito un ecosistema completo per la robotica generalista: i modelli di intelligenza artificiale fondamentali (disponibili gratuitamente), gli ambienti virtuali per addestrare i robot, e i processori da installare direttamente sulle macchine fisiche.Al centro ci sono i modelli della famiglia Cosmos, che simulano il funzionamento del mondo reale per addestrare i robot in ambienti virtuali, e Isaac GR00T, un modello di nuova generazione che permette ai robot umanoidi di vedere, comprendere istruzioni e agire di conseguenza.GR00T utilizza Cosmos come "cervello" e consente agli umanoidi di coordinare movimenti complessi e manipolazione di oggetti simultaneamente. Non più robot limitati a compiti ripetitivi, dunque, ma macchine capaci di adattarsi a situazioni diverse.A supportare l'ecosistema c'è Isaac Lab-Arena, un ambiente di simulazione open source che permette di addestrare i robot in scenari virtuali standardizzati, così che tutti i produttori possano confrontare le prestazioni dei loro sistemi usando gli stessi parametri di valutazione. Un benchmark condiviso, insomma, che fino ad ora mancava nel settore. Infine c'è Nvidia OSMO, una piattaforma di controllo centralizzata che gestisce l'intero processo dalla raccolta dei dati all'addestramento dei modelli.Per alimentare il tutto, ecco la nuova scheda grafica Jetson T4000: è il processore che porta l'intelligenza artificiale dal datacenter direttamente al robot fisico.

L'ANDROID DELLA ROBOTICA
Il parallelo con Android viene allora spontaneo. Nvidia sta rafforzando la partnership con Hugging Face (la principale piattaforma di condivisione di modelli di intelligenza artificiale) per integrare le tecnologie Isaac e GR00T negli strumenti della piattaforma, connettendo milioni di sviluppatori. L'umanoide open source Reachy 2 ora funziona direttamente con il chip Jetson Thor, permettendo agli sviluppatori di testare diversi modelli di IA senza legarsi a sistemi proprietari. Eppure, proprio come Android, l'ecosistema "aperto" nasconde una dipendenza fondamentale: l'hardware è Nvidia, le simulazioni sono Nvidia, i modelli di riferimento sono Nvidia.Ciò che unisce Rubin, Alpamayo e l'ecosistema robotico è un'idea precisa di dove sta andando l'intelligenza artificiale. Non più sistemi che reagiscono a schemi riconosciuti ma architetture capaci di ragionare sul contesto, valutare alternative, pianificare azioni. L'IA agentica smette così di essere solo un termine di moda e diventa il paradigma che Nvidia sta costruendo a ogni livello.La strategia è chiara: Nvidia vuole essere il fornitore dell'infrastruttura di base per l'IA fisica, proprio come è diventata indispensabile per l'IA nei datacenter. E i segnali che stia funzionando ci sono già: la robotica è la categoria con la crescita più rapida su Hugging Face, con i modelli di Nvidia in testa ai download. Aziende come Boston Dynamics, Caterpillar e Franka Robots stanno già utilizzando le tecnologie annunciate al CES.

DOMINIO E DIPENDENZA
C'è però un rovescio della medaglia in questa egemonia. Quando l'intera filiera dell'IA embodied (dal chip alla simulazione, dai modelli ai framework di sviluppo), dipende da un singolo fornitore, per quanto brillante, si creano fragilità sistemiche. La questione non è solo commerciale ma strategica: chi controlla l'infrastruttura robotica controlla il futuro del manufacturing, della logistica, potenzialmente persino della difesa. È un tema che attraversa anche le discussioni sulla sovranità tecnologica, con l'Europa e altri attori che cercano (finora con scarso successo) di costruire alternative credibili.La competizione esiste: Tesla con il Full Self-Driving e il robot Optimus, Google con Waymo e i suoi progetti di robotica, startup cinesi che stanno accumulando know-how rapidamente. Ma per ora, al CES, Nvidia ha mostrato di avere qualcosa che gli altri non hanno: una visione integrata dall'hardware al software, dal datacenter al robot, con un ecosistema già consolidato e partnership già operative.Il futuro dell'IA fisica, almeno per i prossimi anni, sembra passare ancora da Santa Clara.