Figure AI visée par une plainte de lanceur d'alerte pour des robots aux risques de « fracture crânienne »

Robotique
Figure AI Faces Whistleblower Suit Over ‘Skull‑Fracturing’ Robots
Un ancien ingénieur en sécurité a poursuivi Figure AI, affirmant avoir été licencié après avoir averti la direction que les robots humanoïdes de la startup étaient assez puissants pour fracturer un crâne humain et que les protocoles de sécurité avaient été affaiblis après une levée de fonds majeure.

Un ancien ingénieur en sécurité poursuit Figure AI, soulevant de graves préoccupations de sécurité

Figure AI, un développeur de premier plan de robots humanoïdes, est visé par une plainte fédérale de lanceur d'alerte dans laquelle un ancien ingénieur principal en sécurité affirme avoir été licencié après avoir averti les dirigeants de l'entreprise que les machines pourraient causer des dommages mortels — incluant une force suffisante pour fracturer un crâne humain. La plainte, déposée dans le District Nord de la Californie, indique que le plaignant a soulevé des objections de sécurité documentées en interne et allègue que l'entreprise a ultérieurement modifié la feuille de route de sécurité présentée aux investisseurs.

Ce que la plainte allègue

Le plaignant, identifié dans les rapports médiatiques comme ingénieur en chef de la sécurité des produits, affirme avoir averti à plusieurs reprises les cadres supérieurs que les prototypes humanoïdes de l'entreprise pouvaient exercer des forces dangereusement élevées. Parmi les exemples cités dans les dossiers figure un incident au cours duquel un dysfonctionnement de robot aurait entaillé d'un quart de pouce une porte de réfrigérateur en acier — un épisode concret que la plainte utilise pour soutenir que le risque était réel et prévisible. La plainte indique que l'ingénieur a fait part de ses préoccupations aux dirigeants, notamment au PDG et à l'ingénieur en chef, et qu'il a été licencié peu après avoir envoyé ce qu'il a décrit comme une plainte finale et exhaustive sur la sécurité.

Allégations concernant les présentations aux investisseurs et un plan de sécurité « vidé de sa substance »

Par ailleurs, la plainte allègue qu'un plan de sécurité détaillé préparé par l'ingénieur pour des investisseurs potentiels a été affaibli ou modifié avant la clôture de la levée de fonds — un cycle qui, selon les rapports de valorisation, évaluait l'entreprise à environ 39 milliards de dollars. Les avocats du plaignant affirment que l'édulcoration d'une feuille de route de sécurité présentée aux investisseurs pourrait s'apparenter à des divulgations trompeuses ; l'entreprise nie les allégations et affirme que l'ingénieur a été licencié pour des raisons de performance. Le litige soulève des questions sur la gestion des divulgations de risques d'ingénierie lors de cycles de collecte de fonds rapides.

Pourquoi cela est important pour la robotique et la sécurité publique

Humanoid robots sont des dispositifs physiquement puissants. Lorsque les actionneurs, l'effet de levier et le logiciel de contrôle se combinent, un membre se déplaçant à grande vitesse peut délivrer d'importantes forces transitoires. Les études biomécaniques et les données médico-légales montrent que les seuils de fracture du crâne varient, mais des tests de laboratoire contrôlés et des études d'impact placent les forces de fracture typiques dans les bas milliers de newtons pour les crânes adultes dans de nombreuses conditions — des chiffres atteignables avec des actionneurs industriels sans contrainte si aucune limite de puissance et de force, protection ou mode de sécurité validé n'est en place. Ces réalités techniques expliquent pourquoi l'ingénierie de sécurité et la validation indépendante sont essentielles pour transformer les robots humanoïdes de simples démonstrations en machines capables de travailler à proximité des humains.

Normes et contrôles d'ingénierie acceptés

La pratique de l'industrie pour une interaction homme-robot sécurisée repose sur une réduction des risques par couches : évaluations minutieuses des risques au niveau du système, choix de conception mécanique limitant l'énergie d'impact, limitation de la puissance et de la force du système de contrôle, capteurs et fonctions d'arrêt ou de séparation fiables, et validation documentée par rapport aux normes internationales. La famille de normes de sécurité robotique ISO — historiquement l'ISO 10218 et les conseils techniques de l'ISO/TS 15066 — codifie la manière d'évaluer les risques pour les différentes régions du corps et définit des approches acceptables telles que la limitation de la puissance et de la force, ainsi que la surveillance de la vitesse et de la séparation. Les révisions récentes ont continué d'intégrer les directives relatives aux robots collaboratifs dans le cadre de base des robots industriels, reflétant les cas d'utilisation croissants dans le monde réel où les robots et les humains partagent le même espace.

Contours juridiques et réglementaires

Sur le plan juridique, la plainte combine les thèmes du licenciement abusif et du lancement d'alerte avec un angle possible de divulgation aux investisseurs ; si un plan de sécurité présenté aux investisseurs a été matériellement modifié, cela pourrait attirer l'attention des régulateurs ou donner lieu à des réclamations civiles. L'affaire arrive également à un moment où les législateurs et les régulateurs renforcent leur attention sur l'IA et la robotique. Les législateurs ont récemment proposé ou fait progresser des mesures visant à protéger les employés qui signalent des risques de sécurité liés à l'IA, et le débat se poursuit sur le niveau de transparence et d'audit externe requis pour les systèmes à haut risque. Ces efforts politiques sont importants car les canaux internes seuls peuvent laisser des risques systémiques sans réponse lorsque les pressions commerciales sont élevées.

Réponse de l'entreprise et retombées immédiates

Figure AI a publiquement contesté le récit de l'ancien employé, affirmant que le licenciement était dû à des raisons de performance et qualifiant les allégations de fausses. L'avocat du demandeur a soutenu que la loi californienne protège les travailleurs qui signalent des pratiques dangereuses et que les tribunaux devront évaluer à la fois les faits établis lors des incidents en laboratoire et l'existence d'un éventuel motif de représailles. Pour les investisseurs et les clients, la plainte augmente le risque médiatique pour une entreprise qui a suscité un intérêt de financement majeur lors des cycles récents. Les médias rapportant le dépôt de la plainte ont noté que celle-ci pourrait être l'un des premiers cas de lanceur d'alerte liés explicitement à la sécurité des robots humanoïdes.

Ce que cela signifie pour l'industrie

  • Prudence opérationnelle : Les startups qui misent gros sur le matériel et l'autonomie devront redoubler d'efforts pour une validation de sécurité robuste et auditée de manière indépendante afin de rassurer les investisseurs et les régulateurs.
  • Attentes en matière de divulgation : Les processus de levée de fonds incluant des briefings techniques doivent se prémunir contre la présentation sélective des mesures d'atténuation ; les auditeurs et les conseillers examinent de plus en plus les affirmations sur l'état de préparation opérationnelle.
  • Dynamique politique : La plainte renforce les débats politiques sur la protection des lanceurs d'alerte pour les travailleurs de l'IA et de la robotique et sur la nécessité de nouveaux régimes pour faire émerger les risques de sécurité latents.

Comment l'histoire pourrait évoluer

Plusieurs signaux seront à surveiller dans les semaines à venir : si Figure répond par des réfutations techniques détaillées ou des données de tests tiers ; si le plaignant dépose des pièces supplémentaires ou produit des courriels et des rapports internes ; et si les régulateurs ou les organismes de normalisation font des commentaires ou ouvrent des enquêtes. Le processus judiciaire pourrait également faire apparaître des faits techniques précis sur la manière dont l'entreprise a testé le couple, l'impact et les comportements de sécurité intégrée — des faits qui pourraient influencer les normes de l'industrie s'ils devenaient publics par le biais du litige. Pour les chercheurs, les décideurs politiques et les ingénieurs en sécurité, cette affaire rappelle que les défis techniques liés à la construction de robots physiquement capables sont inséparables des pratiques organisationnelles et des incitations qui les façonnent.

Réflexion finale

La robotique humanoïde se situe à l'intersection du logiciel, du matériel et de la vulnérabilité humaine. Transformer des démonstrations impressionnantes en machines sûres et utiles nécessite non seulement de meilleurs algorithmes et actionneurs, mais aussi une culture d'ingénierie de sécurité rigoureuse et une gouvernance transparente. Ce procès sera probablement un premier test de la manière dont le marché, la loi et les normes interagissent lorsque le risque physique et la dynamique commerciale entrent en collision.

— Mattias Risberg, Dark Matter. Basé à Cologne, il couvre la robotique, la sécurité et les politiques technologiques.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Quelles sont les principales allégations de la plainte déposée par le lanceur d'alerte ?
A Le plaignant, un ancien ingénieur en sécurité, affirme avoir été licencié après avoir averti les dirigeants que les prototypes humanoïdes pouvaient exercer des forces importantes, suffisantes pour fracturer un crâne. La plainte mentionne une entaille d'un quart de pouce qu'un robot aurait causée dans une porte de réfrigérateur en acier et un plan de sécurité présenté aux investisseurs qui aurait été édulcoré avant un tour de table valorisant l'entreprise à environ 39 milliards de dollars ; la société affirme que le licenciement était motivé par des raisons de performance.
Q Qu'allègue la plainte concernant les informations communiquées aux investisseurs ?
A La plainte affirme qu'un plan de sécurité détaillé préparé pour les investisseurs potentiels a été affaibli ou modifié avant la levée de fonds, qui aurait valorisé l'entreprise à environ 39 milliards de dollars ; elle soutient que l'édulcoration d'une telle feuille de route pourrait constituer une divulgation trompeuse. Figure AI rejette ces allégations et attribue le licenciement à la performance.
Q Quelles normes et pratiques de sécurité sont citées pour une interaction humain-robot sûre ?
A Les pratiques de l'industrie reposent sur une réduction des risques par couches : évaluations des risques au niveau du système, conceptions mécaniques limitant l'énergie d'impact, limitation de la puissance et de la force par le système de contrôle, capteurs et fonctions d'arrêt fiables, et vérifications validées par rapport aux normes. L'article cite les normes ISO 10218 et ISO/TS 15066, notant des révisions récentes qui intègrent des directives sur les robots collaboratifs pour une interaction humain-robot sécurisée.
Q Quelles implications potentielles pour l'industrie ou développements futurs l'article aborde-t-il ?
A L'article suggère que les startups développant du matériel et de l'autonomie doivent poursuivre une validation de sécurité robuste et auditée de manière indépendante pour rassurer les investisseurs et les régulateurs. Il souligne la dynamique politique actuelle autour de la protection des lanceurs d'alerte et des exigences de transparence pour l'IA et la robotique à haut risque, et note que les régulateurs ou les organismes de normalisation pourraient commenter ou ouvrir des enquêtes à mesure que l'affaire progresse.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!