Au CES et dans les rues d'Austin : deux modèles radicalement différents
Début janvier, au Consumer Electronics Show de Las Vegas, Nvidia a dévoilé Alpamayo — une famille ouverte de grands modèles vision-langage-action et les outils de simulation associés, conçus pour apprendre aux voitures à « raisonner » face à des scènes de trafic inhabituelles. L'entreprise a présenté cette technologie comme une avancée majeure pour ce qu'elle appelle l'« IA physique » et a promu cette approche comme une plateforme modulaire et enseignable que les constructeurs automobiles peuvent intégrer à leurs véhicules.
Six mois plus tôt, à Austin, au Texas, Tesla a discrètement commencé à laisser une petite flotte de véhicules Model Y modifiés transporter des passagers invités dans le cadre de son projet pilote de Robotaxi, une démonstration concrète du pari de plusieurs décennies de l'entreprise sur un logiciel de conduite basé uniquement sur les caméras et entraîné par sa flotte. Ce déploiement — initialement limité et surveillé — a montré une voie contrastée : Tesla livre des logiciels à l'intérieur des véhicules qu'elle construit et utilise pour accumuler de l'expérience de conduite en conditions réelles.
Plateforme contre produit : divergence des philosophies d'ingénierie
L'argument commercial de Nvidia privilégie la plateforme. Elle vend du silicium, du middleware, des suites de capteurs et un environnement d'exploitation (DRIVE Hyperion et DRIVE AGX/Thor). En janvier, l'entreprise a mis en avant des évaluations de sécurité tierces et un écosystème de partenaires constructeurs pouvant adopter des éléments de la pile logicielle plutôt que de les reconstruire de zéro. Ce modèle permet aux constructeurs historiques et aux nouveaux fabricants de véhicules électriques d'accélérer en externalisant le calcul et le logiciel, tout en restant libres de choisir leurs capteurs et l'architecture de leurs véhicules.
Puissance de calcul pour l'entraînement : clusters cloud, modèles ouverts et le destin de Dojo
Jusqu'à récemment, Tesla suivait une voie d'entraînement sur mesure avec Dojo — un projet de supercalculateur interne présenté comme l'épine dorsale de la recherche sur le Full Self-Driving et, à terme, pour les robots humanoïdes. En 2025, Tesla a réorganisé des pans de sa stratégie de calcul, et des rapports parus depuis la mi-2025 décrivent une mise à l'arrêt progressive du programme Dojo, l'entreprise se tournant vers d'autres plans de puces et de clusters. Ce changement illustre une tension centrale : construire un supercalculateur d'entraînement de classe mondiale en interne est coûteux et lent, tandis que l'achat ou la co-location d'accélérateurs de pointe permet de monter en charge plus rapidement mais cède une partie du contrôle.
Le pari de Nvidia est différent : fournir le calcul haute performance (ses GPU et ses SoC DRIVE) et un flux de travail enseignant-élève où un grand modèle de raisonnement comme Alpamayo peut être distillé en réseaux d'exécution plus petits fonctionnant à l'intérieur de la voiture. L'entreprise a également annoncé une suite d'outils de simulation et de jeux de données ouverts destinés à permettre à de nombreux acteurs de s'entraîner, de tester et de valider sans avoir à reconstruire chaque élément d'infrastructure. Cette approche abaisse la barrière pour les constructeurs traditionnels souhaitant déployer des aides à la conduite avancées et, à terme, des niveaux d'autonomie plus élevés.
Les capteurs et le problème de la « longue traîne »
Les deux entreprises divergent également sur les capteurs. Le design de référence Hyperion de Nvidia prend explicitement en charge des suites de capteurs multimodales — caméras, radars et, de plus en plus, lidars — et l'entreprise a mis en avant des partenariats avec des fournisseurs de lidars au CES et lors d'annonces concernant la plateforme DRIVE Hyperion. Nvidia soutient qu'une fusion de capteurs plus riche aide les systèmes à percevoir la profondeur et à détecter les dangers dans des scénarios de faible visibilité ou des cas limites.
Tesla a maintenu sa stratégie privilégiant les caméras, arguant que les conducteurs humains n'utilisent que la vision et qu'un réseau neuronal bien entraîné peut extraire la profondeur et le mouvement à partir de la vidéo. L'avantage réside dans un coût matériel réduit et une intégration simplifiée, plus des volumes massifs de vidéos provenant de la flotte de Tesla en service pour améliorer continuellement les modèles. L'inconvénient — soulevé à plusieurs reprises par les régulateurs et les experts en sécurité — est l'incertitude concernant les événements rares et la capacité des systèmes basés uniquement sur la vision à généraliser aussi bien que les piles multimodales dans des circonstances inhabituelles.
Réglementation, incidents et confiance du public
La sécurité opérationnelle et l'examen du public sont le creuset de ces deux stratégies. Les systèmes FSD et Autopilot de Tesla ont fait l'objet de multiples enquêtes réglementaires et d'une base de données continue de rapports d'incidents soumis au régulateur de la sécurité routière américain. En 2025, la National Highway Traffic Safety Administration a ouvert une évaluation préliminaire portant sur des millions de véhicules après des rapports d'incidents liés aux feux rouges et aux changements de voie, soulignant à la fois les risques juridiques et la surveillance politique qui accompagnent les déploiements des premiers adoptants.
Nvidia a mis l'accent sur des évaluations de sécurité par des tiers, incluant une collaboration avec des organismes de sécurité automobile établis, dans le cadre d'une offre qui s'inscrit plus clairement dans les cadres réglementaires existants sur lesquels s'appuient les constructeurs. L'argument de l'entreprise — des composants certifiés, des jeux de données ouverts et des traces de raisonnement explicables issues d'Alpamayo — est explicitement conçu pour aider les constructeurs à satisfaire aux exigences de sécurité et d'audit à mesure qu'ils déploient des fonctions autonomes à grande échelle.
Dynamique du marché et voie vers le déploiement à grande échelle
Stratégiquement, Nvidia et Tesla poursuivent des objectifs finaux qui se recoupent — de vastes flottes autonomes et des services de robotaxis — mais avec des profils de risque/récompense différents. Nvidia vend à un énorme marché de constructeurs qui préféreront probablement des plateformes modulaires et validées qu'ils peuvent intégrer dans leurs lignes de production existantes ; cela ouvre de nombreuses voies de revenus sans l'intensité capitalistique de la construction de voitures ou de la gestion de flottes. Les premières réactions du marché aux annonces de Nvidia au CES ont inclus des mouvements brusques des actions des fournisseurs de lidars et de capteurs, reflétant la conviction des investisseurs qu'une approche de plateforme multi-fournisseurs accélère la croissance de l'écosystème.
Le potentiel de gain pour Tesla, si sa stratégie d'intégration verticale réussit, est un produit de bout en bout unique : une voiture, un cerveau opérationnel entraîné sur des milliards de kilomètres réels, et les services qui monétisent ces véhicules en tant que robotaxis. Mais ce modèle concentre les risques opérationnels, réglementaires et réputationnels en un seul endroit — et la récente réorganisation des efforts de calcul sur mesure de Tesla souligne à quel point cette voie peut être coûteuse et fragile.
Convergence, compétition et perspectives
Même si les entreprises diffèrent, leurs chemins pourraient converger. La voie ouverte « enseignant-élève » de Nvidia facilite l'adoption de modèles basés sur le raisonnement par les constructeurs (et peut-être même par Tesla en théorie) ; la flotte massive de Tesla reste un avantage en termes de données pour l'apprentissage de bout en bout. Les deux camps seront jugés non seulement sur la sophistication de leurs modèles et de leur silicium, mais aussi sur la sécurité en conditions réelles, la transparence des mesures de gestion des cas limites et la volonté des régulateurs de certifier un fonctionnement sans supervision.
Pour les consommateurs et les villes, le court terme sera complexe : flottes mixtes, réglementations disparates selon les juridictions et déploiements de services progressifs avec surveillance et barrières géographiques. Pour les investisseurs et les technologues, la question est de savoir si l'industrie penchera vers des plateformes modulaires rendant l'autonomie largement accessible, ou vers quelques gagnants verticalement intégrés capturant l'ensemble de la chaîne. Quoi qu'il en soit, la course aux robotaxis ressemble désormais à une compétition sur plusieurs pistes : une voie occupée par des millions de voitures de particuliers collectant des données, l'autre par des plateformes standardisées et des modèles ouverts promettant une validation plus rapide et une adoption plus large.
Sources
- Dossiers de presse NVIDIA (annonces Alpamayo, DRIVE Hyperion et DRIVE AGX)
- National Highway Traffic Safety Administration (fichiers d'évaluation préliminaire et d'enquête sur les systèmes avancés d'aide à la conduite)
- TÜV SÜD et rapports d'évaluation indépendants de sécurité automobile cités dans les documents des fournisseurs
- Déclarations publiques de Tesla et rapports financiers de l'entreprise concernant le FSD, les pilotes de Robotaxi et la stratégie de calcul
Comments
No comments yet. Be the first!