Zwei Wege zum Robotaxi

Technologie
Two Roads to Robotaxis
Nvidia und Tesla liefern sich ein Wettrennen um vollautonome Fahrdienste, setzen dabei jedoch auf grundlegend verschiedene technische und geschäftliche Strategien – die eine modular und offen, die andere vertikal integriert und rein kamerabasiert.

Auf der CES und auf den Straßen von Austin: zwei markant unterschiedliche Entwürfe

Anfang Januar stellte Nvidia auf der Consumer Electronics Show in Las Vegas Alpamayo vor – eine offene Familie großer Vision-Language-Action-Modelle und zugehöriger Simulationswerkzeuge, die darauf ausgelegt sind, Autos das „Schlussfolgern“ in ungewöhnlichen Verkehrsszenarien beizubringen. Das Unternehmen präsentierte die Technologie als einen Quantensprung für das, was es als „physische KI“ bezeichnete, und bewarb den Ansatz als lehrbare, modulare Plattform, die Automobilhersteller in ihre Fahrzeuge integrieren können.

Ein halbes Jahr zuvor hatte Tesla in Austin, Texas, im Stillen damit begonnen, eine kleine Flotte modifizierter Model-Y-Fahrzeuge im Rahmen seines Robotaxi-Piloten geladene Passagiere befördern zu lassen – eine sichtbare Demonstration der jahrzehntelangen Wette des Unternehmens auf eine rein kamerabasierte, flottengeschulte Fahrsoftware. Dieser Rollout – anfangs begrenzt und überwacht – zeigte einen gegensätzlichen Weg: Tesla liefert Software in Fahrzeugen aus, die das Unternehmen selbst baut und nutzt, um Fahrerfahrung in der realen Welt zu sammeln.

Plattform gegen Produkt: Wie die Engineering-Philosophien divergieren

Nvidias öffentliches Verkaufsargument stellt die Plattform in den Vordergrund. Das Unternehmen verkauft Silizium, Middleware, Sensorensuiten und eine Betriebsumgebung (DRIVE Hyperion und DRIVE AGX/Thor). Im Januar hob das Unternehmen Sicherheitsbewertungen durch Dritte und ein Ökosystem von Automobilpartnern hervor, die Teile des Stacks übernehmen können, anstatt sie von Grund auf neu zu entwickeln. Dieses Modell ermöglicht es etablierten Autoherstellern und neuen Elektrofahrzeug-Produzenten, ihre Entwicklung zu beschleunigen, indem sie Rechenleistung und Software auslagern, während sie gleichzeitig die Freiheit behalten, Sensoren und Fahrzeugarchitekturen selbst zu wählen.

Trainings-Rechenleistung: Cloud-Cluster, offene Modelle und das Schicksal von Dojo

Bis vor kurzem verfolgte Tesla mit Dojo einen maßgeschneiderten Trainingspfad – ein internes Supercomputer-Projekt, das als Rückgrat für die Forschung zum autonomen Fahren (Full Self-Driving) und schließlich für humanoide Roboter angepriesen wurde. Im Jahr 2025 organisierte Tesla Teile seiner Rechenstrategie neu, und Berichte seit Mitte 2025 beschreiben, dass das Dojo-Programm heruntergefahren wurde, während das Unternehmen zu anderen Chip- und Cluster-Plänen überging. Diese Änderung verdeutlicht ein zentrales Spannungsfeld: Der Aufbau eines Weltklasse-Trainings-Supercomputers in Eigenregie ist teuer und langsam, während der Kauf oder das Co-Leasing modernster Beschleuniger schneller skalieren kann, aber einen Teil der Kontrolle abgibt.

Nvidias Wette sieht anders aus: die Bereitstellung von Hochleistungs-Rechenleistung (seine GPUs und DRIVE SoCs) und ein offener Teacher-Student-Workflow, bei dem ein großes, logisch schlussfolgerndes Modell wie Alpamayo in kleinere Runtime-Netzwerke destilliert werden kann, die im Auto laufen. Das Unternehmen kündigte außerdem eine Reihe von Simulationswerkzeugen und offenen Datensätzen an, die es vielen Akteuren ermöglichen sollen, zu trainieren, zu testen und zu validieren, ohne jedes Infrastrukturteil neu bauen zu müssen. Dieser Ansatz senkt die Hürde für traditionelle Autohersteller, fortschrittliche Fahrerassistenzsysteme und schließlich höhere Autonomiegrade einzuführen.

Sensoren und das Problem des „Long Tail“

Die beiden Unternehmen sind auch bei den Sensoren uneinig. Nvidias Hyperion-Referenzdesign unterstützt explizit multimodale Sensorensuiten – Kameras, Radar und zunehmend Lidar – und das Unternehmen hob auf der CES sowie in Ankündigungen zur DRIVE-Hyperion-Plattform Partnerschaften mit Lidar-Anbietern hervor. Nvidia argumentiert, dass eine umfassendere Sensorfusion den Systemen hilft, Tiefe wahrzunehmen und Gefahren bei schlechter Sicht oder in Randfällen (Edge Cases) zu erkennen.

Tesla setzt verstärkt auf eine reine Kamera-Strategie und argumentiert, dass menschliche Fahrer allein das Sehvermögen nutzen und ein gut trainiertes neuronales Netz Tiefe und Bewegung aus Videos extrahieren kann. Der Vorteil liegt in niedrigeren Hardwarekosten und einer einfacheren Integration sowie in den massiven Mengen an Videodaten aus der Tesla-Flotte, mit denen die Modelle kontinuierlich verbessert werden können. Der Nachteil – der von Regulierungsbehörden und Sicherheitsexperten immer wieder angeführt wird – ist die Unsicherheit bei seltenen Ereignissen und die Frage, ob rein kamerabasierte Systeme in ungewöhnlichen Situationen ebenso gut generalisieren wie multimodale Stacks.

Regulierung, Vorfälle und öffentliches Vertrauen

Betriebssicherheit und öffentliche Kontrolle sind der Prüfstand für beide Strategien. Teslas FSD- und Autopilot-Systeme waren Gegenstand zahlreicher behördlicher Untersuchungen und eines umfangreichen Datensatzes von Vorfallsberichten, die bei der US-Sicherheitsbehörde eingereicht wurden. Im Jahr 2025 eröffnete die National Highway Traffic Safety Administration eine vorläufige Bewertung, die Millionen von Fahrzeugen umfasst, nachdem Berichte über Rotlicht-Verstöße und Vorfälle bei Spurwechseln eingegangen waren – was sowohl die rechtlichen Risiken als auch die politische Kontrolle verdeutlicht, die auf die Einsätze durch Early Adopter folgen.

Nvidia hat Sicherheitsbewertungen durch Dritte betont, einschließlich der Zusammenarbeit mit etablierten Gremien für Fahrzeugsicherheit, als Teil eines Pakets, das sich besser in bestehende regulatorische Rahmenbedingungen einfügt, auf die sich Automobilhersteller verlassen. Das Verkaufsargument des Unternehmens – zertifizierte Komponenten, offene Datensätze und erklärbare logische Schlussfolgerungen von Alpamayo – ist explizit darauf ausgelegt, OEMs dabei zu helfen, Sicherheits- und Prüfanforderungen zu erfüllen, während sie autonome Funktionen skalieren.

Marktdynamik und der Weg zur Skalierung

Strategisch verfolgen Nvidia und Tesla überschneidende Endziele – große autonome Flotten und Robotaxi-Dienste –, jedoch mit unterschiedlichen Risiko-Rendite-Profilen. Nvidia beliefert einen riesigen Markt von Autoherstellern, die wahrscheinlich modulare, validierte Plattformen bevorzugen, die sie in bestehende Produktionslinien integrieren können; das eröffnet viele Erlöspfade ohne die Kapitalintensität des Fahrzeugbaus oder des Flottenbetriebs. Frühe Marktreaktionen auf Nvidias CES-Ankündigungen führten zu deutlichen Kursbewegungen bei Aktien von Lidar- und Sensorenlieferanten, was den Glauben der Investoren widerspiegelt, dass ein herstellerübergreifender Plattformansatz das Wachstum des Ökosystems beschleunigt.

Teslas Gewinnpotenzial bei einem Erfolg seiner vertikal integrierten Strategie ist ein einzigartiges End-to-End-Produkt: ein Auto, ein auf Milliarden von realen Meilen trainiertes Betriebssystem und die Dienste, die diese Fahrzeuge als Robotaxis monetarisieren. Aber dieses Modell konzentriert betriebliche, regulatorische und Reputationsrisiken an einem Ort – und die jüngste Umstrukturierung von Teslas maßgeschneiderten Rechenbemühungen unterstreicht, wie kostspielig und anfällig dieser Weg sein kann.

Konvergenz, Wettbewerb und was als Nächstes kommt

Auch wenn sich die Unternehmen unterscheiden, könnten ihre Wege konvergieren. Nvidias offener Teacher-Student-Ansatz macht es für Autohersteller (und theoretisch vielleicht sogar für Tesla) einfacher, auf logischem Schlussfolgern basierende Modelle zu übernehmen; Teslas massive Flotte bleibt weiterhin ein Datenvorteil für End-to-End-Lernen. Beide Lager werden nicht nur nach der Komplexität ihrer Modelle und Chips beurteilt werden, sondern nach der Sicherheit in der realen Welt, transparenten Metriken für den Umgang mit Randfällen und der Bereitschaft der Regulierungsbehörden, den unüberwachten Betrieb zu zertifizieren.

Für Verbraucher und Städte wird die nahe Zukunft unübersichtlich aussehen: gemischte Flotten, eine lückenhafte Regulierung in verschiedenen Gerichtsbarkeiten und schrittweise Service-Rollouts mit Überwachungspersonal und Geofencing. Für Investoren und Technologen stellt sich die Frage, ob die Branche zu modularen Plattformen neigt, die Autonomie breit zugänglich machen, oder zu wenigen vertikal integrierten Gewinnern, die den gesamten Stack kontrollieren. So oder so liest sich das Rennen um die Robotaxis nun wie ein Wettbewerb auf mehreren Spuren: eine Spur mit Millionen von Konsumentenautos, die Daten sammeln, die andere mit standardisierten Plattformen und offenen Modellen, die eine schnellere Validierung und breitere Akzeptanz versprechen.

Quellen

  • NVIDIA-Pressematerialien (Ankündigungen zu Alpamayo, DRIVE Hyperion und DRIVE AGX)
  • National Highway Traffic Safety Administration (vorläufige Bewertung und Untersuchungsakten zu fortschrittlichen Fahrerassistenzsystemen)
  • TÜV SÜD und unabhängige Berichte zur Bewertung der Fahrzeugsicherheit, auf die in Herstellermaterialien verwiesen wird
  • Öffentliche Erklärungen von Tesla und Unternehmensberichte zu FSD, Robotaxi-Piloten und der Rechenstrategie
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Welche Ziele verfolgen Nvidia und Tesla mit ihren Strategien für autonomes Fahren?
A Nvidia setzt auf einen plattformorientierten Ansatz, der auf Alpamayo basiert – einer offenen Familie von großen Vision-Language-Action-Modellen sowie Simulationswerkzeugen, die es Automobilherstellern ermöglichen sollen, Komponenten zu integrieren und das logische Denken für ungewöhnliche Verkehrssituationen zu trainieren. Tesla hingegen verfolgt eine vertikal integrierte, kamerafokussierte Produktstrategie, bei der die Software in den eigenen Fahrzeugen ausgeliefert und reale Fahrdaten direkt aus der Flotte gesammelt werden.
Q Wie unterscheiden sich Nvidia und Tesla in ihren Sensorstrategien und warum ist das von Bedeutung?
A Nvidia argumentiert, dass eine umfassendere Sensordatenfusion durch sein multimodales Hyperion-Sensordesign – bestehend aus Kameras, Radar und zunehmend Lidar – die Tiefenwahrnehmung und Gefahrenerkennung bei schlechter Sicht oder in Grenzsituationen (Edge Cases) verbessert. Tesla setzt primär auf Kameras und behauptet, dass trainierte neuronale Netze Tiefe und Bewegung aus Videodaten ableiten können, was geringere Hardwarekosten und eine schnellere Integration ermöglicht, obwohl Regulierungsbehörden und Sicherheitsexperten die Generalisierungsfähigkeit bei seltenen Ereignissen infrage stellen.
Q Welcher regulatorische oder sicherheitstechnische Rahmen unterscheidet die Ansätze von Nvidia und Tesla?
A Nvidia legt Wert auf Sicherheitsbewertungen durch Dritte, offene Datensätze und erklärbare Entscheidungspfade, um sich an bestehende regulatorische Rahmenbedingungen anzupassen, und bietet so einen modularen Weg, der Skalierung und Prüfung erleichtert. Tesla sah sich behördlichen Untersuchungen und einer Vielzahl von Vorfallberichten zu Autopilot und FSD (Full Self-Driving) gegenüber, was die politische Kontrolle und das Risiko verdeutlicht, die mit einem einzigen End-to-End-System einhergehen.
Q Was sind die Marktauswirkungen und Risiko-Rendite-Profile der jeweiligen Ansätze?
A Nvidias Ansatz richtet sich an Automobilhersteller, die modulare, validierte Plattformen suchen, die in bestehende Produktionslinien integriert werden können, und bietet so mehrere Einnahmequellen, ohne selbst Flotten oder Autos bauen zu müssen. Teslas End-to-End-Strategie könnte einen einzigartigen Robotaxi-Service und eine starke Markenbindung ermöglichen, konzentriert jedoch betriebliche, regulatorische und Reputationsrisiken auf ein einziges Unternehmen – ein Risiko, das durch die jüngste Umstrukturierung der kundenspezifischen Rechenkapazitäten noch unterstrichen wurde.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!