Auf der CES und auf den Straßen von Austin: zwei markant unterschiedliche Entwürfe
Anfang Januar stellte Nvidia auf der Consumer Electronics Show in Las Vegas Alpamayo vor – eine offene Familie großer Vision-Language-Action-Modelle und zugehöriger Simulationswerkzeuge, die darauf ausgelegt sind, Autos das „Schlussfolgern“ in ungewöhnlichen Verkehrsszenarien beizubringen. Das Unternehmen präsentierte die Technologie als einen Quantensprung für das, was es als „physische KI“ bezeichnete, und bewarb den Ansatz als lehrbare, modulare Plattform, die Automobilhersteller in ihre Fahrzeuge integrieren können.
Ein halbes Jahr zuvor hatte Tesla in Austin, Texas, im Stillen damit begonnen, eine kleine Flotte modifizierter Model-Y-Fahrzeuge im Rahmen seines Robotaxi-Piloten geladene Passagiere befördern zu lassen – eine sichtbare Demonstration der jahrzehntelangen Wette des Unternehmens auf eine rein kamerabasierte, flottengeschulte Fahrsoftware. Dieser Rollout – anfangs begrenzt und überwacht – zeigte einen gegensätzlichen Weg: Tesla liefert Software in Fahrzeugen aus, die das Unternehmen selbst baut und nutzt, um Fahrerfahrung in der realen Welt zu sammeln.
Plattform gegen Produkt: Wie die Engineering-Philosophien divergieren
Nvidias öffentliches Verkaufsargument stellt die Plattform in den Vordergrund. Das Unternehmen verkauft Silizium, Middleware, Sensorensuiten und eine Betriebsumgebung (DRIVE Hyperion und DRIVE AGX/Thor). Im Januar hob das Unternehmen Sicherheitsbewertungen durch Dritte und ein Ökosystem von Automobilpartnern hervor, die Teile des Stacks übernehmen können, anstatt sie von Grund auf neu zu entwickeln. Dieses Modell ermöglicht es etablierten Autoherstellern und neuen Elektrofahrzeug-Produzenten, ihre Entwicklung zu beschleunigen, indem sie Rechenleistung und Software auslagern, während sie gleichzeitig die Freiheit behalten, Sensoren und Fahrzeugarchitekturen selbst zu wählen.
Trainings-Rechenleistung: Cloud-Cluster, offene Modelle und das Schicksal von Dojo
Bis vor kurzem verfolgte Tesla mit Dojo einen maßgeschneiderten Trainingspfad – ein internes Supercomputer-Projekt, das als Rückgrat für die Forschung zum autonomen Fahren (Full Self-Driving) und schließlich für humanoide Roboter angepriesen wurde. Im Jahr 2025 organisierte Tesla Teile seiner Rechenstrategie neu, und Berichte seit Mitte 2025 beschreiben, dass das Dojo-Programm heruntergefahren wurde, während das Unternehmen zu anderen Chip- und Cluster-Plänen überging. Diese Änderung verdeutlicht ein zentrales Spannungsfeld: Der Aufbau eines Weltklasse-Trainings-Supercomputers in Eigenregie ist teuer und langsam, während der Kauf oder das Co-Leasing modernster Beschleuniger schneller skalieren kann, aber einen Teil der Kontrolle abgibt.
Nvidias Wette sieht anders aus: die Bereitstellung von Hochleistungs-Rechenleistung (seine GPUs und DRIVE SoCs) und ein offener Teacher-Student-Workflow, bei dem ein großes, logisch schlussfolgerndes Modell wie Alpamayo in kleinere Runtime-Netzwerke destilliert werden kann, die im Auto laufen. Das Unternehmen kündigte außerdem eine Reihe von Simulationswerkzeugen und offenen Datensätzen an, die es vielen Akteuren ermöglichen sollen, zu trainieren, zu testen und zu validieren, ohne jedes Infrastrukturteil neu bauen zu müssen. Dieser Ansatz senkt die Hürde für traditionelle Autohersteller, fortschrittliche Fahrerassistenzsysteme und schließlich höhere Autonomiegrade einzuführen.
Sensoren und das Problem des „Long Tail“
Die beiden Unternehmen sind auch bei den Sensoren uneinig. Nvidias Hyperion-Referenzdesign unterstützt explizit multimodale Sensorensuiten – Kameras, Radar und zunehmend Lidar – und das Unternehmen hob auf der CES sowie in Ankündigungen zur DRIVE-Hyperion-Plattform Partnerschaften mit Lidar-Anbietern hervor. Nvidia argumentiert, dass eine umfassendere Sensorfusion den Systemen hilft, Tiefe wahrzunehmen und Gefahren bei schlechter Sicht oder in Randfällen (Edge Cases) zu erkennen.
Tesla setzt verstärkt auf eine reine Kamera-Strategie und argumentiert, dass menschliche Fahrer allein das Sehvermögen nutzen und ein gut trainiertes neuronales Netz Tiefe und Bewegung aus Videos extrahieren kann. Der Vorteil liegt in niedrigeren Hardwarekosten und einer einfacheren Integration sowie in den massiven Mengen an Videodaten aus der Tesla-Flotte, mit denen die Modelle kontinuierlich verbessert werden können. Der Nachteil – der von Regulierungsbehörden und Sicherheitsexperten immer wieder angeführt wird – ist die Unsicherheit bei seltenen Ereignissen und die Frage, ob rein kamerabasierte Systeme in ungewöhnlichen Situationen ebenso gut generalisieren wie multimodale Stacks.
Regulierung, Vorfälle und öffentliches Vertrauen
Betriebssicherheit und öffentliche Kontrolle sind der Prüfstand für beide Strategien. Teslas FSD- und Autopilot-Systeme waren Gegenstand zahlreicher behördlicher Untersuchungen und eines umfangreichen Datensatzes von Vorfallsberichten, die bei der US-Sicherheitsbehörde eingereicht wurden. Im Jahr 2025 eröffnete die National Highway Traffic Safety Administration eine vorläufige Bewertung, die Millionen von Fahrzeugen umfasst, nachdem Berichte über Rotlicht-Verstöße und Vorfälle bei Spurwechseln eingegangen waren – was sowohl die rechtlichen Risiken als auch die politische Kontrolle verdeutlicht, die auf die Einsätze durch Early Adopter folgen.
Nvidia hat Sicherheitsbewertungen durch Dritte betont, einschließlich der Zusammenarbeit mit etablierten Gremien für Fahrzeugsicherheit, als Teil eines Pakets, das sich besser in bestehende regulatorische Rahmenbedingungen einfügt, auf die sich Automobilhersteller verlassen. Das Verkaufsargument des Unternehmens – zertifizierte Komponenten, offene Datensätze und erklärbare logische Schlussfolgerungen von Alpamayo – ist explizit darauf ausgelegt, OEMs dabei zu helfen, Sicherheits- und Prüfanforderungen zu erfüllen, während sie autonome Funktionen skalieren.
Marktdynamik und der Weg zur Skalierung
Strategisch verfolgen Nvidia und Tesla überschneidende Endziele – große autonome Flotten und Robotaxi-Dienste –, jedoch mit unterschiedlichen Risiko-Rendite-Profilen. Nvidia beliefert einen riesigen Markt von Autoherstellern, die wahrscheinlich modulare, validierte Plattformen bevorzugen, die sie in bestehende Produktionslinien integrieren können; das eröffnet viele Erlöspfade ohne die Kapitalintensität des Fahrzeugbaus oder des Flottenbetriebs. Frühe Marktreaktionen auf Nvidias CES-Ankündigungen führten zu deutlichen Kursbewegungen bei Aktien von Lidar- und Sensorenlieferanten, was den Glauben der Investoren widerspiegelt, dass ein herstellerübergreifender Plattformansatz das Wachstum des Ökosystems beschleunigt.
Teslas Gewinnpotenzial bei einem Erfolg seiner vertikal integrierten Strategie ist ein einzigartiges End-to-End-Produkt: ein Auto, ein auf Milliarden von realen Meilen trainiertes Betriebssystem und die Dienste, die diese Fahrzeuge als Robotaxis monetarisieren. Aber dieses Modell konzentriert betriebliche, regulatorische und Reputationsrisiken an einem Ort – und die jüngste Umstrukturierung von Teslas maßgeschneiderten Rechenbemühungen unterstreicht, wie kostspielig und anfällig dieser Weg sein kann.
Konvergenz, Wettbewerb und was als Nächstes kommt
Auch wenn sich die Unternehmen unterscheiden, könnten ihre Wege konvergieren. Nvidias offener Teacher-Student-Ansatz macht es für Autohersteller (und theoretisch vielleicht sogar für Tesla) einfacher, auf logischem Schlussfolgern basierende Modelle zu übernehmen; Teslas massive Flotte bleibt weiterhin ein Datenvorteil für End-to-End-Lernen. Beide Lager werden nicht nur nach der Komplexität ihrer Modelle und Chips beurteilt werden, sondern nach der Sicherheit in der realen Welt, transparenten Metriken für den Umgang mit Randfällen und der Bereitschaft der Regulierungsbehörden, den unüberwachten Betrieb zu zertifizieren.
Für Verbraucher und Städte wird die nahe Zukunft unübersichtlich aussehen: gemischte Flotten, eine lückenhafte Regulierung in verschiedenen Gerichtsbarkeiten und schrittweise Service-Rollouts mit Überwachungspersonal und Geofencing. Für Investoren und Technologen stellt sich die Frage, ob die Branche zu modularen Plattformen neigt, die Autonomie breit zugänglich machen, oder zu wenigen vertikal integrierten Gewinnern, die den gesamten Stack kontrollieren. So oder so liest sich das Rennen um die Robotaxis nun wie ein Wettbewerb auf mehreren Spuren: eine Spur mit Millionen von Konsumentenautos, die Daten sammeln, die andere mit standardisierten Plattformen und offenen Modellen, die eine schnellere Validierung und breitere Akzeptanz versprechen.
Quellen
- NVIDIA-Pressematerialien (Ankündigungen zu Alpamayo, DRIVE Hyperion und DRIVE AGX)
- National Highway Traffic Safety Administration (vorläufige Bewertung und Untersuchungsakten zu fortschrittlichen Fahrerassistenzsystemen)
- TÜV SÜD und unabhängige Berichte zur Bewertung der Fahrzeugsicherheit, auf die in Herstellermaterialien verwiesen wird
- Öffentliche Erklärungen von Tesla und Unternehmensberichte zu FSD, Robotaxi-Piloten und der Rechenstrategie
Kommentare
Noch keine Kommentare. Seien Sie der Erste!