Voormalig veiligheidsingenieur klaagt Figure AI aan en uitte ernstige zorgen over de veiligheid
Figure AI, een vooraanstaande ontwikkelaar van humanoïde robots, is geraakt door een federale klokkenluiderszaak waarin een voormalig hoofd-veiligheidsingenieur stelt dat hij is ontslagen nadat hij de bedrijfsleiding had gewaarschuwd dat de machines dodelijk letsel zouden kunnen toebrengen — waaronder krachten die groot genoeg zijn om een menselijke schedel te fractureren. De aanklacht, ingediend bij de Northern District of California, stelt dat de eiser intern gedocumenteerde bezwaren over de veiligheid naar voren heeft gebracht en beweert dat het bedrijf later het veiligheidsstappenplan heeft gewijzigd dat aan investeerders werd getoond.
Wat de aanklacht beweert
De eiser, in mediaberichten geïdentificeerd als een leidend productveiligheidsingenieur, zegt dat hij senior managers herhaaldelijk heeft gewaarschuwd dat de humanoïde prototypen van het bedrijf gevaarlijk grote krachten kunnen uitoefenen. Onder de voorbeelden in de dossiers wordt een incident genoemd waarbij een defect aan een robot naar verluidt een snee van een kwart inch in een stalen koelkastdeur kerfde — een concreet voorval dat in de zaak wordt gebruikt om aan te tonen dat het risico reëel en voorzienbaar was. De klacht stelt dat de ingenieur zijn zorgen voorlegde aan directieleden, waaronder de CEO en de hoofdingenieur, en dat hij kort na het versturen van wat hij omschreef als een uitgebreide, definitieve veiligheidsklacht werd ontslagen.
Claims over investeerderspresentaties en een 'uitgekleed' veiligheidsplan
Daarnaast beweert de aanklacht dat een gedetailleerd veiligheidsplan dat de ingenieur had opgesteld voor potentiële investeerders later werd afgezwakt of gewijzigd voordat de financieringsronde werd afgerond — een ronde die volgens waarderingsrapporten het bedrijf taxeerde op ongeveer 39 miljard dollar. De advocaten van de eiser stellen dat het afzwakken van een aan investeerders getoond veiligheidsstappenplan kan neerkomen op misleidende informatieverstrekking; het bedrijf ontkent de aantijgingen en stelt dat de ingenieur om prestatieredenen is ontslagen. Het geschil roept vragen op over de manier waarop onthullingen over technische risico's worden afgehandeld tijdens snelle financieringscycli.
Waarom dit belangrijk is voor robotica en de publieke veiligheid
Humanoïde robots zijn fysiek krachtige apparaten. Wanneer actuatoren, hefboomwerking en besturingssoftware samenkomen, kan een ledemaat dat op snelheid beweegt grote kortstondige krachten leveren. Biomechanische studies en forensische gegevens tonen aan dat drempelwaarden voor schedelfracturen variëren, maar gecontroleerde laboratoriumtests en impactstudies plaatsen typische fractuurkrachten onder veel omstandigheden in de lage duizenden newtons voor volwassen schedels — cijfers die haalbaar zijn met onbeperkte industriële actuatoren als er geen vermogens- en krachtbeperkingen, afschermingen of gevalideerde veiligheidsmodi aanwezig zijn. Die technische realiteit is de reden waarom veiligheidstechniek en onafhankelijke validatie essentieel zijn om humanoïde robots te transformeren van demo's naar machines die in de nabijheid van mensen kunnen werken.
Normen en geaccepteerde technische beheersmaatregelen
De praktijk in de industrie voor veilige mens-robotinteractie steunt op gelaagde risicoreductie: zorgvuldige risicobeoordelingen op systeemniveau, mechanische ontwerpkeuzes die de impactenergie beperken, vermogens- en krachtbeperking van het besturingssysteem, sensoren en betrouwbare scheidings- of stopfuncties, en gedocumenteerde validatie volgens internationale normen. De ISO-familie van normen voor robotveiligheid — historisch gezien ISO 10218 en de technische richtlijn in ISO/TS 15066 — leggen vast hoe risico's voor verschillende lichaamsregio's moeten worden beoordeeld en definiëren acceptabele benaderingen zoals vermogens- en krachtbeperking en snelheids- en scheidingsmonitoring. Recente herzieningen hebben de richtlijnen voor collaboratieve robots verder geïntegreerd in het kernkader voor industriële robots, wat de groeiende praktijkscenario's weerspiegelt waarin robots en mensen dezelfde ruimte delen.
Juridische en reglementaire contouren
Aan de juridische kant combineert de aanklacht thema's van onterecht ontslag en klokkenluiden met een mogelijke invalshoek van misleiding van investeerders; als een aan investeerders getoond veiligheidsplan wezenlijk is gewijzigd, zou dit de aandacht van toezichthouders kunnen trekken of aanleiding kunnen geven tot civielrechtelijke claims. De zaak komt bovendien op een moment waarop wetgevers en toezichthouders hun focus op AI en robotica verscherpen. Wetgevers hebben onlangs maatregelen voorgesteld of bevorderd die gericht zijn op de bescherming van werknemers die AI-gerelateerde veiligheidsrisico's melden, en het debat over hoeveel transparantie en externe auditing vereist zou moeten zijn voor risicovolle systemen duurt voort. Deze beleidsinspanningen zijn van belang omdat interne kanalen alleen systemische risico's ongemoeid kunnen laten wanneer de commerciële druk hoog is.
Reactie van het bedrijf en directe gevolgen
Figure AI heeft de lezing van de voormalige werknemer publiekelijk betwist, stellende dat het ontslag om prestatieredenen was en de beschuldigingen als vals bestempelend. De advocaat van de eiser voert aan dat de wetgeving in Californië werknemers beschermt die onveilige praktijken melden en dat de rechtbanken zowel de feiten van de laboratoriumincidenten als de aanwezigheid van een eventueel wraakmotief zullen moeten afwegen. Voor investeerders en klanten verhoogt de rechtszaak het reputatierisico voor een bedrijf dat in recente rondes grote belangstelling van financiers heeft getrokken. Media die over de aanklacht berichten, hebben opgemerkt dat deze zaak mogelijk een van de eerste klokkenluiderszaken is die expliciet verband houdt met de veiligheid van humanoïde robots.
Wat dit betekent voor de industrie
- Operationele voorzichtigheid: Startups die hard inzetten op hardware en autonomie zullen extra moeten investeren in robuuste, onafhankelijk gecontroleerde veiligheidsvalidatie om investeerders en toezichthouders gerust te stellen.
- Verwachtingen rond openbaarmaking: Financieringsprocessen met technische briefings moeten waken voor een selectieve presentatie van risicobeperkende maatregelen; auditoren en adviseurs controleren beweringen over operationele gereedheid steeds scherper.
- Beleidsmomentum: De aanklacht versterkt de beleidsdebatten over de bescherming van klokkenluiders voor AI- en roboticamedewerkers en de vraag of er nieuwe systemen nodig zijn om verborgen veiligheidsrisico's aan het licht te brengen.
Hoe het verhaal zich kan ontwikkelen
Let de komende weken op verschillende signalen: of Figure reageert met gedetailleerde technische weerleggingen of testgegevens van derden; of de eiser extra bewijsstukken indient of interne e-mails en rapporten openbaar maakt; en of toezichthouders of normalisatie-instellingen commentaar geven of onderzoeken openen. Het juridische proces zou ook gedetailleerde technische feiten aan het licht kunnen brengen over hoe het bedrijf koppel, impact en fail-safe gedrag heeft getest — feiten die van belang kunnen zijn voor industriële normen als ze via de rechtszaak openbaar worden. Voor onderzoekers, beleidsmakers en veiligheidsingenieurs is de zaak een herinnering dat de technische uitdagingen van het bouwen van fysiek capabele robots onlosmakelijk verbonden zijn met organisatorische praktijken en de prikkels die deze vormen.
Slotgedachte
Humanoïde robotica bevindt zich op het kruispunt van software, hardware en menselijke kwetsbaarheid. Het omzetten van indrukwekkende demo's in veilige, nuttige machines vereist niet alleen betere algoritmen en actuatoren, maar ook een cultuur van rigoureuze veiligheidstechniek en transparant bestuur. Deze rechtszaak zal waarschijnlijk een vroege test zijn van hoe de markt, de wet en normen op elkaar inwerken wanneer fysieke risico's en commerciële dynamiek met elkaar in botsing komen.
— Mattias Risberg, Dark Matter. Gevestigd in Keulen, rapporteert over robotica, veiligheid en technologiebeleid.
Comments
No comments yet. Be the first!