Nvidia mette l’intelligenza artificiale al volante: il ceo Jensen Huang vuole anche l’automotive
Il progetto chiave si chiama Alpamayo e le ricadue sull’auto
2' di lettura
2' di lettura
.
Jensen Huang entra sempre in scena come se stesse per salire sul palco di un concerto. Giacca di pelle nera, sorriso da rockstar della Silicon Valley, battuta pronta. Ai prime di genneaio, Las Vegas, al Ces ai primi di gennaio, saluta il pubblico come Elvis a Memphis e poi ti dice che sta per arrivare «il momento ChatGPT dell’intelligenza artificiale fisica». Traduzione: non solo chatbot, ma macchine che capiscono il mondo reale. Non male, per uno che ha costruito un impero vendendo schede grafiche ai gamer.
Il protagonista è Jensen Huang, fondatore e ceo di Nvidia, che oggi vuole prendersi anche il volante dell’industria automobilistica. Dopo aver colonizzato data center, AI generativa e supercomputer da scrivania, Huang ora punta alla “Physical AI”: intelligenze artificiali che non si limitano a generare testo o immagini, ma devono guidare, muoversi, evitare ostacoli, non investire pedoni.
Il progetto chiave si chiama Alpamayo. Nome da montagna andina, ambizione da Everest tecnologico. È una famiglia open source di modelli, simulatori e dataset pensati per addestrare veicoli autonomi e robot. Il cuore è Alpamayo 1, un modello VLA (vision, language, action) da 10 miliardi di parametri: vede la strada, interpreta ciò che succede, ragiona per passi e poi decide cosa fare. Non reagisce soltanto: pianifica. È la famosa “chain of thought”, ma applicata al traffico. Qui la strategia di Nvidia è chiara: diventare il sistema nervoso dell’automotive. Non vendere solo chip, ma l’intera infrastruttura cognitiva delle auto del futuro. Huang lo ripete da anni con una certa ossessione zen: «La simulazione è quello che Nvidia fa». E infatti Alpamayo non nasce per girare direttamente sull’auto, ma come “cervello didattico” da cui i costruttori possono derivare versioni più leggere e integrate nei loro stack software.
Il vero salto concettuale però è un altro, e ha un nome ancora più ambizioso: World Foundation Models. Se gli LLM imparano correlazioni tra parole, questi modelli imparano le leggi del mondo. Spazio, gravità, collisioni, causa-effetto. Non rispondono a domande, ma prevedono cosa succede se agisci. È un’AI che pensa in tre dimensioni. Nvidia lo chiama Cosmo: un modello che non nasce per chattare, ma per simulare il reale dentro ambienti virtuali fotorealistici costruiti in Omniverse. Milioni di incidenti finti per evitare uno vero.









