Figure AI: Whistleblower-Klage wegen „schädelzertrümmernder“ Roboter

Robotik
Figure AI Faces Whistleblower Suit Over ‘Skull‑Fracturing’ Robots
Ein ehemaliger Sicherheitsingenieur hat Figure AI verklagt. Er gibt an, entlassen worden zu sein, nachdem er die Geschäftsführung davor gewarnt hatte, dass die humanoiden Roboter des Startups stark genug seien, um einen menschlichen Schädel zu zertrümmern, und dass Sicherheitsvorkehrungen nach einer großen Finanzierungsrunde abgeschwächt wurden.

Ehemaliger Sicherheitsingenieur verklagt Figure AI und äußert massive Sicherheitsbedenken

Figure AI, ein namhafter Entwickler humanoider Roboter, wurde mit einer Whistleblower‑Klage auf Bundesebene konfrontiert. Ein ehemaliger leitender Sicherheitsingenieur gibt darin an, entlassen worden zu sein, nachdem er die Unternehmensführung davor gewarnt hatte, dass die Maschinen tödliche Verletzungen verursachen könnten – einschließlich einer Kraft, die ausreicht, um einen menschlichen Schädel zu zertrümmern. Die beim Bezirksgericht für den nördlichen Distrikt von Kalifornien eingereichte Klage besagt, dass der Kläger intern dokumentierte Einwände zur Sicherheit erhoben habe, und behauptet, das Unternehmen habe später den den Investoren vorgelegten Sicherheitsfahrplan geändert.

Gegenstand der Klage

Der in Medienberichten als leitender Produktsicherheitsingenieur identifizierte Kläger gibt an, er habe das Management wiederholt davor gewarnt, dass die humanoiden Prototypen des Unternehmens gefährlich hohe Kräfte ausüben könnten. Zu den in den Gerichtsunterlagen angeführten Beispielen gehört ein Vorfall, bei dem eine Fehlfunktion des Roboters angeblich eine rund sechs Millimeter tiefe Kerbe in eine Kühlschranktür aus Stahl schlug – ein konkretes Ereignis, mit dem die Klage argumentiert, dass das Risiko real und vorhersehbar war. Der Klageschrift zufolge brachte der Ingenieur seine Bedenken gegenüber Führungskräften vor, darunter dem CEO und dem Chefingenieur, und wurde kurz nach dem Absenden einer umfassenden, finalen Sicherheitsbeschwerde entlassen.

Vorwürfe bezüglich Investorenpräsentationen und eines „ausgehöhlten“ Sicherheitsplans

Unabhängig davon wird in der Klage behauptet, dass ein detaillierter Sicherheitsplan, den der Ingenieur für potenzielle Investoren erstellt hatte, später abgeschwächt oder geändert wurde, bevor die Finanzierungsrunde abgeschlossen wurde – eine Runde, die das Unternehmen laut Bewertungsberichten mit rund 39 Milliarden US‑Dollar bewertete. Die Anwälte des Klägers erklären, dass die Verwässerung eines den Investoren vorgelegten Sicherheitsfahrplans irreführende Angaben darstellen könnte; das Unternehmen weist die Vorwürfe zurück und gibt an, der Ingenieur sei aus Leistungsgründen entlassen worden. Der Streit wirft Fragen darüber auf, wie in rasanten Finanzierungszyklen mit der Offenlegung technischer Risiken umgegangen wird.

Warum dies für die Robotik und die öffentliche Sicherheit von Bedeutung ist

Humanoide Roboter sind physisch leistungsstarke Geräte. Wenn Aktuatoren, Hebelwirkung und Steuerungssoftware zusammenwirken, kann ein sich schnell bewegendes Gliedmaß hohe transiente Kräfte freisetzen. Biomechanische Studien und forensische Daten zeigen, dass die Schwellenwerte für Schädelbrüche variieren, aber kontrollierte Labortests und Aufprallstudien beziffern typische Bruchkräfte für erwachsene Schädel unter vielen Bedingungen auf wenige tausend Newton – Werte, die mit ungebremsten industriellen Aktuatoren erreichbar sind, wenn keine Leistungs- und Kraftbegrenzungen, Schutzvorrichtungen oder validierten Sicherheitsmodi vorhanden sind. Diese technischen Realitäten sind der Grund, warum Sicherheitstechnik und unabhängige Validierung von zentraler Bedeutung sind, um humanoide Roboter von Demonstrationsmodellen in Maschinen zu verwandeln, die in der Nähe von Menschen arbeiten können.

Normen und anerkannte technische Kontrollmaßnahmen

Die Branchenpraxis für eine sichere Mensch-Roboter-Interaktion stützt sich auf eine mehrschichtige Risikominderung: sorgfältige Risikobewertungen auf Systemebene, mechanische Designentscheidungen zur Begrenzung der Aufprallenergie, Leistungs- und Kraftbegrenzung des Steuerungssystems, Sensoren und zuverlässige Trennungs- oder Stoppfunktionen sowie eine dokumentierte Validierung nach internationalen Normen. Die ISO-Familie der Robotersicherheitsnormen – historisch die ISO 10218 und die technische Leitlinie ISO/TS 15066 – legt fest, wie Risiken für verschiedene Körperregionen zu bewerten sind, und definiert akzeptable Ansätze wie Leistungs- und Kraftbegrenzung sowie Geschwindigkeits- und Abstandsüberwachung. Jüngste Überarbeitungen haben die Leitlinien für kollaborative Roboter weiter in das Kernregelwerk für Industrieroboter integriert, was die zunehmenden Einsatzszenarien widerspiegelt, in denen Roboter und Menschen denselben Raum teilen.

Rechtliche und regulatorische Rahmenbedingungen

Auf rechtlicher Seite verbindet die Klage die Themen unrechtmäßige Kündigung und Whistleblowing mit einem möglichen Aspekt der Offenlegungspflicht gegenüber Investoren; sollte ein den Investoren vorgelegter Sicherheitsplan wesentlich geändert worden sein, könnte dies die Aufmerksamkeit der Regulierungsbehörden auf sich ziehen oder zu zivilrechtlichen Ansprüchen führen. Der Fall fällt zudem in eine Zeit, in der Gesetzgeber und Aufsichtsbehörden ihren Fokus verstärkt auf KI und Robotik richten. Abgeordnete haben kürzlich Maßnahmen vorgeschlagen oder auf den Weg gebracht, um Mitarbeiter zu schützen, die KI-bezogene Sicherheitsrisiken melden, und die Debatte darüber, wie viel Transparenz und externe Prüfung für Hochrisikosysteme erforderlich sein sollte, hält an. Diese politischen Bemühungen sind von Bedeutung, da interne Kanäle allein systemische Risiken unberücksichtigt lassen können, wenn der kommerzielle Druck hoch ist.

Reaktion des Unternehmens und unmittelbare Folgen

Figure AI hat der Darstellung des ehemaligen Mitarbeiters öffentlich widersprochen, die Kündigung mit Leistungsgründen begründet und die Vorwürfe als falsch bezeichnet. Der Anwalt des Klägers argumentiert, dass das kalifornische Recht Arbeitnehmer schützt, die unsichere Praktiken melden, und dass die Gerichte sowohl die Faktenlage der Vorfälle im Labor als auch das Vorliegen eines Vergeltungsmotivs prüfen müssen. Für Investoren und Kunden erhöht die Klage das Reputationsrisiko für ein Unternehmen, das in jüngsten Runden großes Interesse bei Geldgebern geweckt hat. Medienberichte über die Einreichung weisen darauf hin, dass dies einer der ersten Whistleblower-Fälle sein könnte, der explizit mit der Sicherheit humanoider Roboter in Verbindung steht.

Was dies für die Branche bedeutet

  • Operative Vorsicht: Startups, die Hardware und Autonomie massiv vorantreiben, müssen verstärkt auf robuste, unabhängig geprüfte Sicherheitsvalidierungen setzen, um Investoren und Regulierungsbehörden zu beruhigen.
  • Erwartungen an die Offenlegung: Finanzierungsprozesse, die technische Briefings beinhalten, müssen sich vor einer selektiven Darstellung von Schutzmaßnahmen hüten; Auditoren und Rechtsberater prüfen Angaben zur Betriebsbereitschaft zunehmend kritisch.
  • Politischer Schwung: Die Klage verstärkt die politischen Debatten über den Schutz von Whistleblowern für Mitarbeiter in der KI- und Robotikbranche und darüber, ob neue Systeme erforderlich sind, um latente Sicherheitsrisiken aufzudecken.

Wie sich die Geschichte entwickeln könnte

In den kommenden Wochen ist auf verschiedene Signale zu achten: ob Figure mit detaillierten technischen Widerlegungen oder Testdaten von Drittanbietern reagiert; ob der Kläger weitere Beweismittel einreicht oder interne E-Mails und Berichte offenlegt; und ob Regulierungsbehörden oder Normungsgremien Stellung beziehen oder Untersuchungen einleiten. Das Gerichtsverfahren könnte zudem detaillierte technische Fakten darüber ans Licht bringen, wie das Unternehmen Drehmoment, Aufprall und Fail-Safe-Verhalten getestet hat – Fakten, die für Branchennormen von Bedeutung sein könnten, wenn sie durch den Rechtsstreit öffentlich werden. Für Forscher, politische Entscheidungsträger und Sicherheitsingenieure ist der Fall eine Mahnung, dass die technischen Herausforderungen beim Bau physisch leistungsfähiger Roboter untrennbar mit den organisatorischen Praktiken und den Anreizen, die sie prägen, verbunden sind.

Abschließende Gedanken

Humanoide Robotik steht an der Schnittstelle von Software, Hardware und menschlicher Verletzlichkeit. Um beeindruckende Demos in sichere, nützliche Maschinen zu verwandeln, sind nicht nur bessere Algorithmen und Aktuatoren erforderlich, sondern auch eine Kultur strenger Sicherheitstechnik und transparenter Governance. Diese Klage dürfte ein früher Test dafür sein, wie Markt, Recht und Normen zusammenspielen, wenn physisches Risiko und kommerzielle Dynamik aufeinanderprallen.

— Mattias Risberg, Dark Matter. Ansässig in Köln, berichtet über Robotik, Sicherheit und Technologiepolitik.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Was sind die Kernvorwürfe in der Whistleblower-Klage?
A Der Kläger, ein ehemaliger Sicherheitsingenieur, gibt an, entlassen worden zu sein, nachdem er Führungskräfte davor gewarnt hatte, dass die humanoiden Prototypen große Kräfte ausüben könnten, die ausreichen würden, um einen Schädel zu zertrümmern. Die Klage verweist auf eine viertelzöllige Kerbe, die ein Roboter angeblich in einer Kühlschranktür aus Stahl verursacht hat, sowie auf einen Investoren vorgelegten Sicherheitsplan, der Berichten zufolge vor einer Finanzierungsrunde mit einer Bewertung von rund 39 Milliarden US-Dollar abgeschwächt wurde; das Unternehmen gibt an, die Kündigung sei aus Leistungsgründen erfolgt.
Q Was wird in der Klage bezüglich der Offenlegungen gegenüber Investoren behauptet?
A In der Klage wird behauptet, dass ein für potenzielle Investoren erstellter detaillierter Sicherheitsplan vor der Finanzierungsrunde, die das Unternehmen Berichten zufolge mit rund 39 Milliarden US-Dollar bewertete, abgeschwächt oder geändert wurde; es wird geltend gemacht, dass die Abschwächung eines solchen Fahrplans irreführende Angaben darstellen könnte. Figure AI bestreitet die Behauptung und führt die Entlassung auf die Leistung zurück.
Q Welche Sicherheitsstandards und -praktiken werden für die sichere Mensch-Roboter-Interaktion angeführt?
A Die Branchenpraxis stützt sich auf eine mehrschichtige Risikominderung: Risikobeurteilungen auf Systemebene, mechanische Konstruktionen zur Begrenzung der Aufprallenergie, Leistungs- und Kraftbegrenzung im Steuerungssystem, Sensoren und zuverlässige Stoppfunktionen sowie validierte Prüfungen anhand von Normen. Der Artikel zitiert ISO 10218 und ISO/TS 15066 und weist auf die jüngsten Überarbeitungen hin, die Leitlinien für kollaborative Roboter für eine sichere Mensch-Roboter-Interaktion integrieren.
Q Welche potenziellen Auswirkungen auf die Branche oder künftige Entwicklungen werden in dem Artikel erörtert?
A Der Artikel legt nahe, dass Startups, die Hardware und Autonomie vorantreiben, eine robuste, unabhängig geprüfte Sicherheitsvalidierung anstreben müssen, um Investoren und Regulierungsbehörden zu beruhigen. Er hebt die aktuelle politische Dynamik rund um den Whistleblower-Schutz und Transparenzanforderungen für Hochrisiko-KI und Robotik hervor und merkt an, dass Regulierungsbehörden oder Normungsgremien im Verlauf des Falls Stellungnahmen abgeben oder Untersuchungen einleiten könnten.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!