Prodotti

CES 2026, Nvidia lancia Alpamayo una famiglia di modelli Ai per la guida autonoma

Dal palco del CES di Las Vegas Jensen Huang presenta Alpamayo, una nuova famiglia di modelli, simulatori e dataset open source pensata per addestrare auto autonome e robot a ragionare nel mondo reale.

di Luca Tremolada

Il CEO di Nvidia Jensen Huang tiene in mano un interruttore per il supercomputer Nvidia Vera Rubin NVL72 AI durante il keynote di Nvidia al CES 2026, una fiera annuale dell'elettronica di consumo, a Las Vegas, Nevada, Stati Uniti, il 5 gennaio 2026. (REUTERS/Steve Marcus)

4' di lettura

English Version

4' di lettura

English Version

LAS VEGAS - Nvidia alza il cofano dell’auto autonoma e ci infila il cervello. Si chiama Alpamayo: una nuova famiglia open source di modelli di intelligenza artificiale, simulatori e dataset per addestrare robot e veicoli fisici. L’obiettivo è ambizioso e molto concreto.

Dopo aver dominato l’edizione 2025 con l’annuncio delle GPU della serie RTX 5000 e del supercomputer desktop, Jensen Huang si ripresenta al Consumer Electronic Show di Las Vegas da re incontrastato dell’AI, come un nuovo Elvis Presley per dare una forma alla Physical AI, che definisce l’intelligenza artificiale che capisce le leggi della fisica. Niente di meno. Jensen si presenta salutando Las Vegas con una giacca di pelle nera di coccodrillo da rockstar.

Loading...

Per Jensen Huang, numero uno di Nvidia, è un passaggio storico. «È arrivato il momento ChatGPT dell’intelligenza artificiale fisica», dice. Traduzione: le macchine non si limitano più a vedere e reagire. Ora iniziano a capire, ragionare e agire nel mondo reale. Come un guidatore umano.

Il cuore del sistema è Alpamayo 1. Un modello VLA – visione, linguaggio e azione – da 10 miliardi di parametri. Non solo riconosce ciò che accade davanti al parabrezza, ma mette in fila i pensieri. Ragiona per passi. Spezza i problemi. Valuta le opzioni. Poi sceglie la più sicura. È la famosa chain of thought, applicata all’asfalto.

Tecnicamente, ha spiegato, è un ecosistema completo e aperto per l’autonomia basata sul ragionamento. Alpamayo integra tre pilastri fondamentali (modelli aperti, framework di simulazione e set di dati) in un ecosistema aperto e coeso su cui qualsiasi sviluppatore o team di ricerca del settore automobilistico può basarsi.

Anziché essere eseguiti direttamente all’interno del veicolo, i modelli Alpamayo fungono da modelli didattici su larga scala che gli sviluppatori possono perfezionare e integrare nelle strutture portanti dei loro stack AV completi.

Nel corso della presentazione Jensen ha ripercorso le tappe dell’intelligenza artificiale, dai reasoning model introdotti da OpenAI fino ai modelli aperti open source come DeepSeek, che hanno portato l’AI dentro i computer e le macchine. Jensen ha rispiegato l’economia degli agenti intelligenti, spiegando come in questo nuovo ecosistema il business sia nella nostra capacità di utilizzare LLM e software e applicazioni per creare nuovi servizi. Ma il cuore del suo keynote si è concentrato sulla Physical AI. L’apprendimento non nasce dai dati, da testi e video e audio, ma da ambienti di simulazione in tre dimensioni. «La simulazione è quello che Nvidia fa», ha voluto puntualizzare per chiarire ancora meglio il posizionamento.

Come nasce Alpamayo?

Secondo Nvidia, i World Foundation Models sono il passo successivo rispetto ai grandi modelli linguistici. Non servono a capire frasi, ma a capire il mondo.

L’idea è semplice e radicale: addestrare modelli di intelligenza artificiale non solo su testi, immagini o video, ma sulle leggi fisiche, spaziali e causali della realtà. Un World Foundation Model impara come funziona un ambiente tridimensionale: la gravità, le collisioni, il movimento degli oggetti, la relazione tra un’azione e le sue conseguenze. Non risponde a una domanda. Prevede cosa succede se agisci.

Per Nvidia questi modelli sono la base cognitiva dei robot, delle auto autonome e degli agenti fisici. Un robot non può limitarsi a «riconoscere» una sedia: deve sapere che può aggirarla, spostarla, urtarla, salirci sopra. Deve avere un modello interno del mondo, continuamente aggiornato, su cui simulare decisioni prima di eseguirle nel mondo reale.

Qui entra in gioco la simulazione. Nvidia costruisce questi modelli usando mondi virtuali fotorealistici, come quelli sviluppati in Omniverse, dove l’AI può fare milioni di esperimenti senza rompere nulla. Cadere, sbagliare, imparare. Esattamente come fa un bambino, ma a velocità da data center.

La differenza chiave rispetto ai language model è epistemologica. Un LLM apprende correlazioni tra simboli. Un World Foundation Model apprende dinamiche. Non impara «cosa dire», ma «come funziona qualcosa». È un’AI che pensa in termini di spazio, tempo e causa-effetto.

Per Nvidia questi modelli sono l’infrastruttura invisibile della prossima ondata di automazione. Senza un modello del mondo, l’AI resta confinata negli schermi. Con un modello del mondo, può finalmente uscire e agire.

Nel corso della presentazione Jensen ha presentato Cosmo, che è il World Foundation Model di Nvidia. In pratica, è il modello che prova a insegnare alle macchine non a parlare del mondo, ma a immaginare come funziona il mondo.

Nvidia lo descrive come un modello di base capace di comprendere e generare ambienti fisici e tridimensionali: spazio, oggetti, movimento, cause ed effetti. Cosmo non nasce per chattare. Nasce per simulare. Serve a prevedere cosa accade se un robot afferra un oggetto, se un veicolo svolta, se due corpi collidono, se una forza viene applicata. All’interno di questo contesto nasce Alpamayo.

Come funzionerà concretamente?

È pensato per la comunità di ricerca sui veicoli autonomi ed è disponibile su Hugging Face. Open source sul serio: pesi aperti, script di inferenza aperti. Gli sviluppatori possono «dimagrirlo» per farlo girare in tempo reale su un’auto vera, oppure usarlo come cervello di riferimento per costruire strumenti: valutatori che giudicano se una manovra è stata sensata, sistemi di auto-etichettatura che mettono ordine nei video senza intervento umano.

E non finisce qui. I prossimi modelli della famiglia cresceranno ancora: più parametri, ragionamenti più fini, input e output più flessibili. E, dettaglio non banale, opzioni per l’uso commerciale. Open oggi, business domani.

Poi c’è AlpaSim. Il simulatore. Un framework end-to-end, completamente open source, disponibile su GitHub. Qui le auto autonome possono fare incidenti virtuali senza costi reali. Sensori realistici, traffico configurabile, ambienti di test a ciclo chiuso che scalano. Serve per validare rapidamente le policy di guida e correggerle prima che escano dal garage digitale.

Infine i dati. Tanti dati. Nvidia mette sul tavolo il suo set di dati aperto per l’intelligenza artificiale fisica: oltre 1.700 ore di guida, raccolte in un’ampia varietà di luoghi e condizioni. Pioggia, sole, città, periferie, casi limite rari e complessi. È la materia prima del ragionamento. Senza esempi difficili, l’AI resta ingenua. Anche questi dataset sono su Hugging Face.

Riproduzione riservata ©
  • Luca Tremolada

    Luca TremoladaGiornalista

    Luogo: Milano via Monte Rosa 91

    Lingue parlate: Inglese, Francese

    Argomenti: Tecnologia, scienza, finanza, startup, dati

    Premi: Premio Gabriele Lanfredini sull’informazione; Premio giornalistico State Street, categoria "Innovation"; DStars 2019, categoria journalism

Loading...

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti