Ehemaliger Sicherheitsingenieur verklagt Figure AI und äußert massive Sicherheitsbedenken
Figure AI, ein namhafter Entwickler humanoider Roboter, wurde mit einer Whistleblower‑Klage auf Bundesebene konfrontiert. Ein ehemaliger leitender Sicherheitsingenieur gibt darin an, entlassen worden zu sein, nachdem er die Unternehmensführung davor gewarnt hatte, dass die Maschinen tödliche Verletzungen verursachen könnten – einschließlich einer Kraft, die ausreicht, um einen menschlichen Schädel zu zertrümmern. Die beim Bezirksgericht für den nördlichen Distrikt von Kalifornien eingereichte Klage besagt, dass der Kläger intern dokumentierte Einwände zur Sicherheit erhoben habe, und behauptet, das Unternehmen habe später den den Investoren vorgelegten Sicherheitsfahrplan geändert.
Gegenstand der Klage
Der in Medienberichten als leitender Produktsicherheitsingenieur identifizierte Kläger gibt an, er habe das Management wiederholt davor gewarnt, dass die humanoiden Prototypen des Unternehmens gefährlich hohe Kräfte ausüben könnten. Zu den in den Gerichtsunterlagen angeführten Beispielen gehört ein Vorfall, bei dem eine Fehlfunktion des Roboters angeblich eine rund sechs Millimeter tiefe Kerbe in eine Kühlschranktür aus Stahl schlug – ein konkretes Ereignis, mit dem die Klage argumentiert, dass das Risiko real und vorhersehbar war. Der Klageschrift zufolge brachte der Ingenieur seine Bedenken gegenüber Führungskräften vor, darunter dem CEO und dem Chefingenieur, und wurde kurz nach dem Absenden einer umfassenden, finalen Sicherheitsbeschwerde entlassen.
Vorwürfe bezüglich Investorenpräsentationen und eines „ausgehöhlten“ Sicherheitsplans
Unabhängig davon wird in der Klage behauptet, dass ein detaillierter Sicherheitsplan, den der Ingenieur für potenzielle Investoren erstellt hatte, später abgeschwächt oder geändert wurde, bevor die Finanzierungsrunde abgeschlossen wurde – eine Runde, die das Unternehmen laut Bewertungsberichten mit rund 39 Milliarden US‑Dollar bewertete. Die Anwälte des Klägers erklären, dass die Verwässerung eines den Investoren vorgelegten Sicherheitsfahrplans irreführende Angaben darstellen könnte; das Unternehmen weist die Vorwürfe zurück und gibt an, der Ingenieur sei aus Leistungsgründen entlassen worden. Der Streit wirft Fragen darüber auf, wie in rasanten Finanzierungszyklen mit der Offenlegung technischer Risiken umgegangen wird.
Warum dies für die Robotik und die öffentliche Sicherheit von Bedeutung ist
Humanoide Roboter sind physisch leistungsstarke Geräte. Wenn Aktuatoren, Hebelwirkung und Steuerungssoftware zusammenwirken, kann ein sich schnell bewegendes Gliedmaß hohe transiente Kräfte freisetzen. Biomechanische Studien und forensische Daten zeigen, dass die Schwellenwerte für Schädelbrüche variieren, aber kontrollierte Labortests und Aufprallstudien beziffern typische Bruchkräfte für erwachsene Schädel unter vielen Bedingungen auf wenige tausend Newton – Werte, die mit ungebremsten industriellen Aktuatoren erreichbar sind, wenn keine Leistungs- und Kraftbegrenzungen, Schutzvorrichtungen oder validierten Sicherheitsmodi vorhanden sind. Diese technischen Realitäten sind der Grund, warum Sicherheitstechnik und unabhängige Validierung von zentraler Bedeutung sind, um humanoide Roboter von Demonstrationsmodellen in Maschinen zu verwandeln, die in der Nähe von Menschen arbeiten können.
Normen und anerkannte technische Kontrollmaßnahmen
Die Branchenpraxis für eine sichere Mensch-Roboter-Interaktion stützt sich auf eine mehrschichtige Risikominderung: sorgfältige Risikobewertungen auf Systemebene, mechanische Designentscheidungen zur Begrenzung der Aufprallenergie, Leistungs- und Kraftbegrenzung des Steuerungssystems, Sensoren und zuverlässige Trennungs- oder Stoppfunktionen sowie eine dokumentierte Validierung nach internationalen Normen. Die ISO-Familie der Robotersicherheitsnormen – historisch die ISO 10218 und die technische Leitlinie ISO/TS 15066 – legt fest, wie Risiken für verschiedene Körperregionen zu bewerten sind, und definiert akzeptable Ansätze wie Leistungs- und Kraftbegrenzung sowie Geschwindigkeits- und Abstandsüberwachung. Jüngste Überarbeitungen haben die Leitlinien für kollaborative Roboter weiter in das Kernregelwerk für Industrieroboter integriert, was die zunehmenden Einsatzszenarien widerspiegelt, in denen Roboter und Menschen denselben Raum teilen.
Rechtliche und regulatorische Rahmenbedingungen
Auf rechtlicher Seite verbindet die Klage die Themen unrechtmäßige Kündigung und Whistleblowing mit einem möglichen Aspekt der Offenlegungspflicht gegenüber Investoren; sollte ein den Investoren vorgelegter Sicherheitsplan wesentlich geändert worden sein, könnte dies die Aufmerksamkeit der Regulierungsbehörden auf sich ziehen oder zu zivilrechtlichen Ansprüchen führen. Der Fall fällt zudem in eine Zeit, in der Gesetzgeber und Aufsichtsbehörden ihren Fokus verstärkt auf KI und Robotik richten. Abgeordnete haben kürzlich Maßnahmen vorgeschlagen oder auf den Weg gebracht, um Mitarbeiter zu schützen, die KI-bezogene Sicherheitsrisiken melden, und die Debatte darüber, wie viel Transparenz und externe Prüfung für Hochrisikosysteme erforderlich sein sollte, hält an. Diese politischen Bemühungen sind von Bedeutung, da interne Kanäle allein systemische Risiken unberücksichtigt lassen können, wenn der kommerzielle Druck hoch ist.
Reaktion des Unternehmens und unmittelbare Folgen
Figure AI hat der Darstellung des ehemaligen Mitarbeiters öffentlich widersprochen, die Kündigung mit Leistungsgründen begründet und die Vorwürfe als falsch bezeichnet. Der Anwalt des Klägers argumentiert, dass das kalifornische Recht Arbeitnehmer schützt, die unsichere Praktiken melden, und dass die Gerichte sowohl die Faktenlage der Vorfälle im Labor als auch das Vorliegen eines Vergeltungsmotivs prüfen müssen. Für Investoren und Kunden erhöht die Klage das Reputationsrisiko für ein Unternehmen, das in jüngsten Runden großes Interesse bei Geldgebern geweckt hat. Medienberichte über die Einreichung weisen darauf hin, dass dies einer der ersten Whistleblower-Fälle sein könnte, der explizit mit der Sicherheit humanoider Roboter in Verbindung steht.
Was dies für die Branche bedeutet
- Operative Vorsicht: Startups, die Hardware und Autonomie massiv vorantreiben, müssen verstärkt auf robuste, unabhängig geprüfte Sicherheitsvalidierungen setzen, um Investoren und Regulierungsbehörden zu beruhigen.
- Erwartungen an die Offenlegung: Finanzierungsprozesse, die technische Briefings beinhalten, müssen sich vor einer selektiven Darstellung von Schutzmaßnahmen hüten; Auditoren und Rechtsberater prüfen Angaben zur Betriebsbereitschaft zunehmend kritisch.
- Politischer Schwung: Die Klage verstärkt die politischen Debatten über den Schutz von Whistleblowern für Mitarbeiter in der KI- und Robotikbranche und darüber, ob neue Systeme erforderlich sind, um latente Sicherheitsrisiken aufzudecken.
Wie sich die Geschichte entwickeln könnte
In den kommenden Wochen ist auf verschiedene Signale zu achten: ob Figure mit detaillierten technischen Widerlegungen oder Testdaten von Drittanbietern reagiert; ob der Kläger weitere Beweismittel einreicht oder interne E-Mails und Berichte offenlegt; und ob Regulierungsbehörden oder Normungsgremien Stellung beziehen oder Untersuchungen einleiten. Das Gerichtsverfahren könnte zudem detaillierte technische Fakten darüber ans Licht bringen, wie das Unternehmen Drehmoment, Aufprall und Fail-Safe-Verhalten getestet hat – Fakten, die für Branchennormen von Bedeutung sein könnten, wenn sie durch den Rechtsstreit öffentlich werden. Für Forscher, politische Entscheidungsträger und Sicherheitsingenieure ist der Fall eine Mahnung, dass die technischen Herausforderungen beim Bau physisch leistungsfähiger Roboter untrennbar mit den organisatorischen Praktiken und den Anreizen, die sie prägen, verbunden sind.
Abschließende Gedanken
Humanoide Robotik steht an der Schnittstelle von Software, Hardware und menschlicher Verletzlichkeit. Um beeindruckende Demos in sichere, nützliche Maschinen zu verwandeln, sind nicht nur bessere Algorithmen und Aktuatoren erforderlich, sondern auch eine Kultur strenger Sicherheitstechnik und transparenter Governance. Diese Klage dürfte ein früher Test dafür sein, wie Markt, Recht und Normen zusammenspielen, wenn physisches Risiko und kommerzielle Dynamik aufeinanderprallen.
— Mattias Risberg, Dark Matter. Ansässig in Köln, berichtet über Robotik, Sicherheit und Technologiepolitik.
Kommentare
Noch keine Kommentare. Seien Sie der Erste!