Figure AI står inför visselblåsarstämning om ”skallekrossande” robotar

Robotik
Figure AI Faces Whistleblower Suit Over ‘Skull‑Fracturing’ Robots
En före detta säkerhetsingenjör har stämt Figure AI och hävdar att han avskedades efter att ha varnat företagsledningen för att startupens humanoida robotar var kraftfulla nog att krossa en mänsklig skalle, samt att säkerhetsplanerna nedprioriterades efter en omfattande finansieringsrunda.

Före detta säkerhetsingenjör stämmer Figure AI, väcker allvarliga säkerhetsbekymmer

Figure AI, en profilerad utvecklare av humanoida robotar, har träffats av en federal visselblåsarstämning där en tidigare senior säkerhetsingenjör uppger att han avskedades efter att ha varnat företagsledningen för att maskinerna skulle kunna orsaka dödlig skada – inklusive krafter tillräckliga för att krossa en mänsklig skalle. Stämningsansökan, som lämnats in till Northern District of California, anger att målsäganden framförde dokumenterade säkerhetsinvändningar internt och hävdar att företaget senare ändrade den säkerhetsplan som visades för investerare.

Vad stämningen hävdar

Målsäganden, som i medierapporter identifierats som ledande produktsäkerhetsingenjör, säger att han upprepade gånger varnade företagsledningen för att företagets humanoida prototyper kunde utöva farligt stora krafter. Bland de exempel som anförs i handlingarna finns en incident där ett robotfel uppges ha skurit en kvartstums skåra i en kylskåpsdörr av stål – en konkret händelse som stämningen använder för att hävda att risken var verklig och förutsägbar. Stämningsansökan uppger att ingenjören framförde sina bekymmer till chefer, inklusive vd:n och chefsingenjören, och att han sades upp kort efter att ha skickat vad han beskrev som ett omfattande, slutgiltigt säkerhetsklagomål.

Påståenden om investerarpresentationer och en "urholkad" säkerhetsplan

Vidare hävdas i stämningen att en detaljerad säkerhetsplan som ingenjören utarbetat för potentiella investerare senare försvagades eller ändrades innan finansieringsrundan stängdes – en runda som enligt värderingsrapporter värderade företaget till cirka 39 miljarder dollar. Målsägandens advokater menar att utspädningen av en säkerhetsplan som visas för investerare kan utgöra vilseledande upplysningar; företaget förnekar anklagelserna och hävdar att ingenjören avskedades av prestandaskäl. Tvisten väcker frågor om hur utlämnande av tekniska risker hanteras under intensiva finansieringscykler.

Varför detta är viktigt för robotik och allmän säkerhet

Humanoida robotar är fysiskt kraftfulla maskiner. När aktuatorer, hävstångseffekt och kontrollprogramvara samverkar kan en lem som rör sig i hastighet leverera stora transienta krafter. Biomekaniska studier och forensiska data visar att tröskelvärden för skallfrakturer varierar, men kontrollerade laboratorietester och krockstudier placerar typiska frakturkrafter i det lägre tusentalet newton för vuxna kranier under många förhållanden – siffror som är uppnåeliga med obegränsade industriella aktuatorer om inga kraft- och effektbegränsningar, skydd eller validerade säkerhetslägen finns på plats. Dessa tekniska realiteter är anledningen till att säkerhetsteknik och oberoende validering är centrala för att förvandla humanoida robotar från demonstrationer till maskiner som kan arbeta nära människor.

Standarder och vedertagna tekniska kontroller

Branschpraxis för säker interaktion mellan människa och robot bygger på riskreducering i flera lager: noggranna riskbedömningar på systemnivå, mekaniska designval som begränsar anslagsenergi, kraft- och effektbegränsning i styrsystemet, sensorer och tillförlitliga separations- eller stoppfunktioner, samt dokumenterad validering mot internationella standarder. ISO-familjen av robotsäkerhetsstandarder – historiskt ISO 10218 och den tekniska vägledningen i ISO/TS 15066 – kodifierar hur risker för olika kroppsregioner ska bedömas och definierar acceptabla metoder såsom kraft- och effektbegränsning samt hastighets- och separationsövervakning. Senare revideringar har fortsatt att integrera vägledning för kollaborativa robotar i det centrala ramverket för industrirobotar, vilket återspeglar växande verkliga användningsområden där robotar och människor delar utrymme.

Juridiska och regulatoriska konturer

På den juridiska sidan kombinerar stämningsansökan teman om felaktig uppsägning och visselblåsning med en möjlig aspekt av investerarupplysning; om en säkerhetsplan som visats för investerare ändrats väsentligt, kan det dra till sig granskning från tillsynsmyndigheter eller ge upphov till civilrättsliga anspråk. Fallet kommer också i ett ögonblick då lagstiftare och tillsynsmyndigheter skärper sitt fokus på AI och robotik. Lagstiftare har nyligen föreslagit eller drivit på åtgärder som syftar till att skydda anställda som rapporterar AI-relaterade säkerhetsrisker, och debatten fortsätter om hur mycket transparens och extern revision som bör krävas för högrisksystem. Dessa politiska ansträngningar är viktiga eftersom interna kanaler ensamma kan lämna systemiska risker oåtgärdade när de kommersiella påtryckningarna är höga.

Företagets svar och omedelbara konsekvenser

Figure AI har offentligt bestridit den tidigare anställdes redogörelse, hävdat att uppsägningen berodde på prestandaskäl och beskrivit anklagelserna som falska. Målsägandens advokat har anfört att Kaliforniens lagstiftning skyddar arbetstagare som rapporterar osäkra metoder och att domstolarna kommer att behöva väga både den faktiska bevisningen från laboratorieincidenterna och huruvida det fanns några repressalieinslag. För investerare och kunder ökar stämningen ryktesrisken för ett företag som har lockat stort finansieringsintresse i de senaste rundorna. Medier som rapporterar om stämningen har noterat att den kan vara bland de första visselblåsarfallen som uttryckligen är kopplade till robotsäkerhet för humanoida maskiner.

Vad detta innebär för branschen

  • Operationell försiktighet: Startups som satsar hårt på hårdvara och autonomi kommer att behöva satsa dubbelt på robust, oberoende granskad säkerhetsvalidering för att lugna investerare och tillsynsmyndigheter.
  • Förväntningar på upplysningar: Finansieringsprocesser som inkluderar tekniska genomgångar måste vara vaksamma mot selektiv presentation av riskminskande åtgärder; revisorer och juridiska rådgivare granskar alltmer påståenden om operationell beredskap.
  • Politiskt momentum: Stämningen förstärker politiska debatter om visselblåsarskydd för anställda inom AI och robotik och om nya regelverk behövs för att synliggöra latenta säkerhetsrisker.

Hur historien kan utvecklas

Håll utkik efter flera signaler under de kommande veckorna: om Figure svarar med detaljerade tekniska motargument eller testdata från tredje part; om målsäganden lämnar in ytterligare bevis eller visar upp interna e-postmeddelanden och rapporter; och om tillsynsmyndigheter eller standardiseringsorgan kommenterar eller inleder utredningar. Den juridiska processen kan också föra upp detaljerade tekniska fakta till ytan om hur företaget testade vridmoment, kollisioner och felsäkra beteenden – fakta som kan få betydelse för branschnormer om de blir offentliga genom rättstvisten. För forskare, beslutsfattare och säkerhetsingenjörer är fallet en påminnelse om att de tekniska utmaningarna med att bygga fysiskt kapabla robotar är oskiljaktiga från organisatoriska metoder och de incitament som formar dem.

Slutord

Humanoid robotik befinner sig i skärningspunkten mellan programvara, hårdvara och mänsklig sårbarhet. Att förvandla imponerande demonstrationer till säkra, användbara maskiner kräver inte bara bättre algoritmer och aktuatorer utan även en kultur av rigorös säkerhetsteknik och transparent styrning. Denna stämning kommer sannolikt att bli ett tidigt test av hur marknaden, lagen och standarder samverkar när fysisk risk och kommersiell drivkraft kolliderar.

— Mattias Risberg, Dark Matter. Baserad i Köln, rapporterar om robotik, säkerhet och teknikpolitik.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Vilka är de centrala anklagelserna i visselblåsarens stämningsansökan?
A Målsäganden, en tidigare säkerhetsingenjör, hävdar att han fick sparken efter att ha varnat företagsledningen för att de humanoida prototyperna kunde utöva stora krafter, tillräckliga för att krossa en mänsklig skalle. Stämningen pekar på en kvarts tum djup skåra som en robot påstås ha orsakat i en kylskåpsdörr av stål samt en säkerhetsplan som visades för investerare och som enligt uppgift försvagades före en finansieringsrunda som värderade företaget till cirka 39 miljarder dollar; företaget hävdar att uppsägningen berodde på bristande arbetsprestation.
Q Vad hävdar stämningen gällande informationen till investerare?
A I stämningsansökan hävdas att en detaljerad säkerhetsplan som tagits fram för potentiella investerare försvagades eller ändrades inför finansieringsrundan, vilken enligt uppgift värderade företaget till ungefär 39 miljarder dollar; det görs gällande att en sådan urvattning av färdplanen skulle kunna utgöra vilseledande upplysningar. Figure AI nekar till anklagelsen och tillskriver uppsägningen bristande prestationer.
Q Vilka säkerhetsstandarder och metoder citeras för säker interaktion mellan människa och robot?
A Branschpraxis bygger på riskreducering i flera lager: riskbedömningar på systemnivå, mekanisk design som begränsar anslagsenergi, kraft- och effektbegränsning i styrsystemet, sensorer och tillförlitliga stoppfunktioner samt validerade kontroller mot standarder. Artikeln citerar ISO 10218 och ISO/TS 15066 och noterar de nyligen genomförda revideringar som integrerar vägledning för kollaborativa robotar för säker interaktion mellan människa och robot.
Q Vilka potentiella branschkonsekvenser eller framtida utvecklingar diskuterar artikeln?
A Artikeln föreslår att startup-företag som driver på utvecklingen av hårdvara och autonomi måste genomföra robusta, oberoende granskade säkerhetsvalideringar för att lugna investerare och tillsynsmyndigheter. Den belyser ett pågående politiskt momentum kring visselblåsarskydd och transparenskrav för högrisk-AI och robotik, och noterar att tillsynsmyndigheter eller standardiseringsorgan kan komma att lämna kommentarer eller inleda utredningar allteftersom fallet utvecklas.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!