Due strade verso i robotaxi

Tecnologia
Two Roads to Robotaxis
Nvidia e Tesla sono entrambe in corsa verso servizi di trasporto completamente autonomi, ma puntano su strategie tecniche e commerciali fondamentalmente diverse: una modulare e aperta, l'altra verticalmente integrata e basata sulla visione.

Al CES e sulle strade di Austin: due blueprint profondamente diversi

All'inizio di gennaio, al Consumer Electronics Show di Las Vegas, Nvidia ha svelato Alpamayo — una famiglia aperta di modelli di visione-linguaggio-azione di grandi dimensioni e relativi strumenti di simulazione progettati per insegnare alle auto a "ragionare" su scene di traffico insolite. L'azienda ha presentato la tecnologia come un cambiamento di passo per quella che ha definito "AI fisica" e ha promosso l'approccio come una piattaforma modulare e istruibile che le case automobilistiche possono integrare nei propri veicoli.

Sei mesi prima, ad Austin, in Texas, Tesla aveva iniziato silenziosamente a permettere a una piccola flotta di veicoli Model Y modificati di trasportare passeggeri invitati come parte del suo progetto pilota Robotaxi, una dimostrazione visibile della scommessa decennale dell'azienda sul software di guida addestrato tramite flotta e basato esclusivamente su telecamere. Quel lancio — inizialmente limitato e monitorato — ha mostrato un percorso contrastante: Tesla che distribuisce software all'interno di veicoli che essa stessa costruisce e utilizza per accumulare esperienza di guida nel mondo reale.

Piattaforma contro prodotto: come divergono le filosofie ingegneristiche

La proposta pubblica di Nvidia è incentrata sulla piattaforma. L'azienda vende silicio, middleware, suite di sensori e un ambiente operativo (DRIVE Hyperion e DRIVE AGX/Thor), e a gennaio ha messo in risalto le valutazioni di sicurezza di terze parti e un ecosistema di partner automobilistici che possono adottare parti dello stack piuttosto che ricostruirle da zero. Questo modello permette alle case automobilistiche tradizionali e ai nuovi produttori di veicoli elettrici di accelerare i tempi esternalizzando il calcolo e il software, pur rimanendo liberi di scegliere i sensori e le architetture dei veicoli.

Infrastruttura di calcolo per l'addestramento: cluster cloud, modelli aperti e il destino di Dojo

Fino a poco tempo fa, Tesla aveva perseguito un percorso di addestramento su misura con Dojo — un progetto di supercomputer interno presentato come la spina dorsale per la ricerca sul Full Self-Driving e, in futuro, per i robot umanoidi. Nel 2025 Tesla ha riorganizzato parti della sua strategia di calcolo e, secondo i rapporti della metà del 2025, il programma Dojo sarebbe in fase di ridimensionamento mentre l'azienda si sposta verso altri piani per chip e cluster. Questo cambiamento illustra una tensione centrale: costruire privatamente un supercomputer di addestramento di livello mondiale è costoso e lento, mentre l'acquisto o il co-leasing di acceleratori all'avanguardia può scalare più velocemente, pur cedendo una parte del controllo.

La scommessa di Nvidia è diversa: fornire l'infrastruttura di calcolo ad alte prestazioni (le sue GPU e i SoC DRIVE) e un workflow "teacher-student" aperto in cui un modello di ragionamento di grandi dimensioni come Alpamayo può essere distillato in reti runtime più piccole che girano all'interno dell'auto. L'azienda ha anche annunciato una suite di strumenti di simulazione e dataset aperti destinati a consentire a molti attori di addestrare, testare e convalidare senza dover ricostruire ogni pezzo di infrastruttura. Questo approccio abbassa la barriera per le case automobilistiche tradizionali per implementare sistemi avanzati di assistenza alla guida e, infine, livelli di autonomia più elevati.

Sensori e il problema della "long-tail"

Le due aziende dissentono anche sui sensori. Il design di riferimento Hyperion di Nvidia supporta esplicitamente suite di sensori multimodali — telecamere, radar e sempre più spesso lidar — e l'azienda ha evidenziato le partnership con i fornitori di lidar al CES e negli annunci relativi alla piattaforma DRIVE Hyperion. Nvidia sostiene che una fusione sensoriale più ricca aiuti i sistemi a percepire la profondità e a rilevare i pericoli in scenari di scarsa visibilità o in casi limite (edge-case).

Tesla ha raddoppiato la sua strategia basata esclusivamente sulle telecamere, sostenendo che i conducenti umani usano solo la vista e che una rete neurale ben addestrata può estrarre profondità e movimento dai video. Il vantaggio risiede nel minor costo dell'hardware e in una integrazione più semplice, oltre alle enormi quantità di video provenienti dalla flotta Tesla in servizio che possono continuare a migliorare i modelli. Il rovescio della medaglia — sollevato ripetutamente da regolatori ed esperti di sicurezza — è l'incertezza riguardo agli eventi rari e se i sistemi basati solo sulla visione generalizzino altrettanto bene degli stack multimodali in circostanze insolite.

Regolamentazione, incidenti e fiducia del pubblico

La sicurezza operativa e l'esame pubblico rappresentano il banco di prova per entrambe le strategie. I sistemi FSD e Autopilot di Tesla sono stati oggetto di molteplici indagini normative e di un dataset costante di rapporti sugli incidenti inviati al regolatore della sicurezza statunitense. Nel 2025, la National Highway Traffic Safety Administration ha aperto una valutazione preliminare su milioni di veicoli dopo le segnalazioni di incidenti relativi a semafori rossi e cambi di corsia, evidenziando sia i rischi legali che il controllo politico che seguono le implementazioni dei primi utilizzatori.

Nvidia ha enfatizzato le valutazioni di sicurezza di terze parti, compreso il coinvolgimento con organismi di sicurezza automobilistica consolidati, come parte di un pacchetto che si adatta più linearmente ai quadri normativi esistenti su cui fanno affidamento le case automobilistiche. La proposta dell'azienda — componenti certificati, dataset aperti e tracce di ragionamento spiegabili da Alpamayo — è esplicitamente progettata per aiutare gli OEM a soddisfare i requisiti di sicurezza e di audit man mano che scalano le funzioni autonome.

Dinamiche di mercato e il percorso verso la scalabilità

Strategicamente, Nvidia e Tesla inseguono obiettivi finali sovrapponibili — grandi flotte autonome e servizi di robotaxi — ma con profili di rischio/ricompensa differenti. Nvidia vende a un mercato enorme di case automobilistiche che probabilmente preferiranno piattaforme modulari e convalidate da integrare nelle linee di produzione esistenti; ciò apre molti percorsi di ricavo senza l'intensità di capitale necessaria per costruire auto o gestire flotte. Le prime reazioni del mercato agli annunci di Nvidia al CES hanno incluso forti movimenti nei titoli dei fornitori di lidar e sensori, riflettendo la convinzione degli investitori che un approccio di piattaforma multi-vendor acceleri la crescita dell'ecosistema.

Il potenziale di Tesla, se la sua strategia integrata verticalmente avrà successo, è un prodotto unico end-to-end: un'auto, un cervello operativo addestrato su miliardi di chilometri reali e i servizi che monetizzano tali veicoli come robotaxi. Ma questo modello concentra il rischio operativo, normativo e reputazionale in un unico punto — e la recente riorganizzazione degli sforzi di calcolo su misura di Tesla sottolinea quanto quel percorso possa essere costoso e fragile.

Convergenza, competizione e prospettive future

Sebbene le aziende divergano, i loro percorsi potrebbero convergere. La via aperta "teacher-student" di Nvidia rende più facile per le case automobilistiche (e forse teoricamente anche per Tesla) adottare modelli basati sul ragionamento; la massiccia flotta di Tesla continua a rappresentare un vantaggio in termini di dati per l'apprendimento end-to-end. Entrambi i campi saranno giudicati non solo sulla sofisticatezza dei loro modelli e del silicio, ma sulla sicurezza nel mondo reale, sulla trasparenza delle metriche per la gestione dei casi limite e sulla volontà dei regolatori di certificare il funzionamento senza supervisione.

Per i consumatori e le città, il breve termine apparirà confuso: flotte miste, regolamentazioni frammentate tra le varie giurisdizioni e lanci di servizi incrementali con supervisori e geofencing. Per gli investitori e i tecnologi, la domanda è se l'industria penderà verso piattaforme modulari che rendano l'autonomia ampiamente accessibile, o verso pochi vincitori integrati verticalmente che catturino l'intero stack. In ogni caso, la corsa ai robotaxi si legge ora come una gara su più binari: una corsia affollata da milioni di auto di consumo che raccolgono dati, l'altra con piattaforme standardizzate e modelli aperti che promettono una convalida più rapida e un'adozione più ampia.

Fonti

  • Materiali stampa NVIDIA (annunci Alpamayo, DRIVE Hyperion e DRIVE AGX)
  • National Highway Traffic Safety Administration (valutazione preliminare e file di indagine sui sistemi avanzati di assistenza alla guida)
  • TÜV SÜD e rapporti indipendenti di valutazione della sicurezza automobilistica citati nei materiali dei fornitori
  • Dichiarazioni pubbliche di Tesla e documenti aziendali relativi a FSD, progetti pilota Robotaxi e strategia di calcolo
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Quali sono gli obiettivi di Nvidia e Tesla con le loro strategie per la guida autonoma?
A Nvidia punta su un approccio basato sulla piattaforma incentrato su Alpamayo, una famiglia aperta di modelli di visione-linguaggio-azione di grandi dimensioni e strumenti di simulazione progettati per consentire alle case automobilistiche di integrare componenti e addestrare il ragionamento per scenari di traffico insoliti. Tesla, al contrario, persegue una strategia di prodotto a integrazione verticale basata principalmente sulle telecamere, distribuendo il software all'interno dei propri veicoli e raccogliendo dati di guida reali dalla propria flotta.
Q In che modo Nvidia e Tesla differiscono nelle loro strategie relative ai sensori e perché questo è importante?
A Nvidia sostiene che una fusione dei sensori più ricca attraverso il suo design multimodale Hyperion — telecamere, radar e sempre più spesso lidar — migliori la percezione della profondità e il rilevamento dei pericoli in scenari a bassa visibilità o casi limite (edge-case). Tesla propende per un approccio basato sulle telecamere, sostenendo che le reti neurali addestrate possano dedurre profondità e movimento dai video, consentendo costi hardware inferiori e un'integrazione più rapida, sebbene i regolatori e gli esperti di sicurezza mettano in dubbio la capacità di generalizzazione in eventi rari.
Q Quale inquadramento normativo o di sicurezza distingue gli approcci di Nvidia e Tesla?
A Nvidia pone l'accento su valutazioni di sicurezza di terze parti, set di dati aperti e tracce di ragionamento spiegabili per allinearsi ai quadri normativi esistenti, presentando un percorso modulare che facilita la scalabilità e l'auditing. Tesla ha dovuto affrontare indagini normative e un gran numero di segnalazioni di incidenti per Autopilot e FSD, a dimostrazione del controllo politico e del rischio derivanti da un unico sistema end-to-end.
Q Quali sono le implicazioni di mercato e i profili di rischio/rendimento di ciascun percorso?
A L'approccio di Nvidia si rivolge alle case automobilistiche che desiderano piattaforme modulari e validate integrabili nelle linee di produzione esistenti, offrendo molteplici flussi di entrate senza dover costruire flotte o auto. La strategia end-to-end di Tesla potrebbe offrire un servizio di robotaxi unico e un forte legame con il marchio (brand lock-in), ma concentra i rischi operativi, normativi e reputazionali in un'unica azienda, un rischio sottolineato dalla sua recente riorganizzazione degli sforzi nel calcolo personalizzato (bespoke compute).

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!