Figure AI enfrenta una demanda de informante por robots capaces de "fracturar cráneos"

Robótica
Figure AI Faces Whistleblower Suit Over ‘Skull‑Fracturing’ Robots
Un exingeniero de seguridad ha demandado a Figure AI, alegando que fue despedido tras advertir a los ejecutivos que los robots humanoides de la startup eran lo suficientemente potentes como para fracturar un cráneo humano y que los protocolos de seguridad se debilitaron tras una gran ronda de financiación.

Exingeniero de seguridad demanda a Figure AI, planteando graves preocupaciones de seguridad

Figure AI, un destacado desarrollador de robots humanoides, ha sido objeto de una demanda federal por denuncia de irregularidades (whistleblower) en la que un antiguo ingeniero principal de seguridad afirma que fue despedido tras advertir a los líderes de la empresa que las máquinas podrían causar daños letales —incluida una fuerza suficiente para fracturar un cráneo humano. La demanda, presentada en el Northern District of California, sostiene que el demandante planteó internamente objeciones de seguridad documentadas y alega que la empresa alteró posteriormente la hoja de ruta de seguridad mostrada a los inversores.

Lo que alega la demanda

El demandante, identificado en informes de prensa como ingeniero principal de seguridad de productos, afirma que advirtió repetidamente a los directivos sénior de que los prototipos humanoides de la empresa podían ejercer fuerzas peligrosamente elevadas. Entre los ejemplos citados en los expedientes se encuentra un incidente en el que, según se informa, un mal funcionamiento de un robot provocó un tajo de un cuarto de pulgada en la puerta de acero de un refrigerador —un episodio concreto que la demanda utiliza para argumentar que el riesgo era real y previsible. La denuncia sostiene que el ingeniero comunicó sus preocupaciones a los ejecutivos, incluidos el CEO y el ingeniero jefe, y que fue despedido poco después de enviar lo que describió como una queja de seguridad final y exhaustiva.

Afirmaciones sobre presentaciones a inversores y un plan de seguridad "vaciado"

Por otra parte, la demanda alega que un plan de seguridad detallado que el ingeniero preparó para posibles inversores fue posteriormente debilitado o modificado antes de que se cerrara la ronda de financiación —una ronda que, según los informes de valoración, valoró a la empresa en aproximadamente 39.000 millones de dólares. Los abogados del demandante afirman que diluir una hoja de ruta de seguridad mostrada a los inversores podría equivaler a declaraciones engañosas; la empresa niega las acusaciones y afirma que el ingeniero fue despedido por motivos de rendimiento. La disputa plantea interrogantes sobre cómo se gestionan las divulgaciones de riesgos de ingeniería durante los ciclos rápidos de recaudación de fondos.

Por qué esto es importante para la robótica y la seguridad pública

Los robots humanoides son dispositivos físicamente potentes. Cuando los actuadores, el apalancamiento y el software de control se combinan, una extremidad que se mueve a gran velocidad puede generar fuerzas transitorias elevadas. Los estudios biomecánicos y los datos forenses muestran que los umbrales de fractura craneal varían, pero las pruebas de laboratorio controladas y los estudios de impacto sitúan las fuerzas de fractura típicas en unos pocos miles de newtons para cráneos de adultos en muchas condiciones —cifras que son alcanzables con actuadores industriales sin restricciones si no existen límites de potencia y fuerza, protecciones o modos de seguridad validados. Esas realidades técnicas son la razón por la que la ingeniería de seguridad y la validación independiente son fundamentales para convertir a los robots humanoides de demostraciones en máquinas que puedan trabajar cerca de personas.

Estándares y controles de ingeniería aceptados

La práctica de la industria para una interacción segura entre humanos y robots se basa en una reducción de riesgos por capas: evaluaciones de riesgo cuidadosas a nivel de sistema, opciones de diseño mecánico que limiten la energía de impacto, limitación de potencia y fuerza del sistema de control, sensores y funciones fiables de separación o parada, y validación documentada según estándares internacionales. La familia ISO de estándares de seguridad para robots —históricamente la ISO 10218 y la guía técnica ISO/TS 15066— codifica cómo evaluar los riesgos para diferentes regiones del cuerpo y define enfoques aceptables como la limitación de potencia y fuerza y el monitoreo de velocidad y separación. Las revisiones recientes han seguido integrando la guía de robots colaborativos en el marco principal de robots industriales, reflejando los crecientes casos de uso en el mundo real donde los robots y las personas comparten el espacio.

Contornos legales y regulatorios

En el aspecto legal, la demanda combina temas de despido improcedente y denuncia de irregularidades con un posible ángulo de divulgación a los inversores; si un plan de seguridad mostrado a los inversores se alteró sustancialmente, podría atraer el escrutinio de los reguladores o dar lugar a demandas civiles. El caso llega también en un momento en que los legisladores y reguladores están agudizando su enfoque en la IA y la robótica. Recientemente, los legisladores han propuesto o impulsado medidas destinadas a proteger a los empleados que informan sobre riesgos de seguridad relacionados con la IA, y continúa el debate sobre cuánta transparencia y auditoría externa se debe exigir para los sistemas de alto riesgo. Esos esfuerzos políticos son importantes porque los canales internos por sí solos pueden dejar sin abordar riesgos sistémicos cuando las presiones comerciales son altas.

Respuesta de la empresa y consecuencias inmediatas

Figure AI ha refutado públicamente el relato del ex empleado, afirmando que el despido se debió a motivos de rendimiento y calificando las alegaciones de falsas. El abogado del demandante ha argumentado que la ley de California protege a los trabajadores que denuncian prácticas unsafe y que los tribunales deberán sopesar tanto el registro fáctico de los incidentes de laboratorio como si existió algún motivo de represalia. Para los inversores y clientes, la demanda aumenta el riesgo reputacional de una empresa que ha atraído un gran interés de financiación en rondas recientes. Los medios de comunicación que informan sobre la demanda han señalado que este podría ser uno de los primeros casos de denunciantes vinculados explícitamente a la seguridad de los robots humanoides.

Qué significa esto para la industria

  • Cautela operativa: Las startups que apuestan fuerte por el hardware y la autonomía deberán redoblar sus esfuerzos en una validación de seguridad robusta y auditada de forma independiente para tranquilizar a inversores y reguladores.
  • Expectativas de divulgación: Los procesos de recaudación de fondos que incluyen informes técnicos deben evitar la presentación selectiva de mitigaciones; los auditores y asesores legales examinan cada vez más las afirmaciones sobre la preparación operativa.
  • Impulso político: La demanda refuerza los debates políticos sobre las protecciones de los denunciantes para los trabajadores de IA y robótica y sobre si son necesarios nuevos regímenes para sacar a la luz riesgos de seguridad latentes.

Cómo podría desarrollarse la historia

Esté atento a varias señales en las próximas semanas: si Figure responde con refutaciones técnicas detalladas o datos de pruebas de terceros; si el demandante presenta pruebas adicionales o revela correos electrónicos e informes internos; y si los reguladores u organismos de normalización comentan o abren investigaciones. El proceso legal también podría sacar a la luz datos técnicos granulares sobre cómo la empresa probó el par motor, el impacto y los comportamientos de seguridad ante fallos (fail-safe) —datos que podrían ser importantes para las normas de la industria si se hacen públicos a través del litigio. Para investigadores, responsables políticos e ingenieros de seguridad, el caso es un recordatorio de que los desafíos técnicos de construir robots físicamente capaces son inseparables de las prácticas organizativas y los incentivos que las moldean.

Reflexión final

La robótica humanoide se encuentra en la intersección del software, el hardware y la vulnerabilidad humana. Convertir demostraciones impresionantes en máquinas seguras y útiles requiere no solo mejores algoritmos y actuadores, sino una cultura de ingeniería de seguridad rigurosa y gobernanza transparente. Es probable que esta demanda sea una prueba temprana de cómo interactúan el mercado, la ley y los estándares cuando el riesgo físico y el impulso comercial colisionan.

— Mattias Risberg, Dark Matter. Con sede en Colonia, informa sobre robótica, seguridad y política tecnológica.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Cuáles son las alegaciones principales en la demanda del denunciante?
A El demandante, un antiguo ingeniero de seguridad, afirma que fue despedido tras advertir a los ejecutivos que los prototipos humanoides podrían ejercer fuerzas de gran magnitud, suficientes incluso para fracturar un cráneo. La demanda señala un tajo de un cuarto de pulgada que supuestamente causó un robot en la puerta de acero de un refrigerador y un plan de seguridad mostrado a los inversores que, según se informa, fue debilitado antes de una ronda de financiación valorada en unos 39.000 millones de dólares; la empresa afirma que el despido se debió a motivos de rendimiento.
Q ¿Qué alega la demanda sobre las revelaciones a los inversores?
A La demanda afirma que un plan de seguridad detallado preparado para posibles inversores fue debilitado o modificado antes de la ronda de financiación, que según se informa valoró a la empresa en aproximadamente 39.000 millones de dólares; asevera que diluir dicha hoja de ruta podría equivaler a revelaciones engañosas. Figure AI niega la acusación y atribuye el despido al rendimiento.
Q ¿Qué normas y prácticas de seguridad se citan para una interacción segura entre humanos y robots?
A La práctica de la industria se basa en la reducción de riesgos por niveles: evaluaciones de riesgo a nivel de sistema, diseños mecánicos que limitan la energía de impacto, limitación de potencia y fuerza en el sistema de control, sensores y funciones de parada fiables, y comprobaciones validadas frente a normativas. El artículo cita las normas ISO 10218 e ISO/TS 15066, destacando revisiones recientes que integran directrices para robots colaborativos para una interacción segura entre humanos y robots.
Q ¿Qué posibles implicaciones para la industria o desarrollos futuros analiza el artículo?
A El artículo sugiere que las empresas emergentes que impulsan el hardware y la autonomía deben buscar una validación de seguridad robusta y auditada de forma independiente para tranquilizar a inversores y reguladores. Destaca el impulso político actual en torno a las protecciones de los denunciantes y los requisitos de transparencia para la IA y la robótica de alto riesgo, y señala que los reguladores u organismos de normalización podrían realizar comentarios o abrir investigaciones a medida que se desarrolle el caso.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!