Figure AI столкнулась с иском от информатора из-за роботов, «способных проломить череп»

Робототехника
Figure AI Faces Whistleblower Suit Over ‘Skull‑Fracturing’ Robots
Бывший инженер по технике безопасности подал в суд на Figure AI, утверждая, что был уволен после предупреждений руководству о том, что гуманоидные роботы стартапа обладают достаточной мощностью, чтобы проломить человеческий череп, а протоколы безопасности были ослаблены после крупного раунда финансирования.

Бывший инженер по безопасности подал в суд на Figure AI, заявив о серьезных угрозах безопасности

Компания Figure AI, известный разработчик человекоподобных роботов, столкнулась с федеральным иском от осведомителя. Бывший ведущий инженер по безопасности утверждает, что его уволили после того, как он предупредил руководство о том, что машины могут нанести смертельный вред, включая силу, достаточную для перелома черепа человека. В жалобе, поданной в Северном округе Калифорнии, говорится, что истец неоднократно выдвигал задокументированные возражения по вопросам безопасности внутри компании, и утверждается, что позже компания изменила «дорожную карту» безопасности, представленную инвесторам.

Суть обвинений

Истец, которого в СМИ называют ведущим инженером по безопасности продукции, утверждает, что он неоднократно предупреждал высшее руководство о том, что прототипы гуманоидных роботов компании могут развивать опасно большие усилия. Среди примеров, приведенных в материалах дела, упоминается инцидент, в ходе которого в результате сбоя робот прорубил в стальной дверце холодильника щель глубиной в четверть дюйма (около 6 мм) — этот конкретный эпизод используется в иске для доказательства того, что риск был реальным и предсказуемым. В жалобе указано, что инженер довел свои опасения до сведения руководителей, включая генерального директора и главного инженера, и был уволен вскоре после отправки того, что он назвал исчерпывающей, финальной претензией по безопасности.

Заявления о презентациях для инвесторов и «урезанном» плане безопасности

Отдельно в иске утверждается, что подробный план безопасности, подготовленный инженером для потенциальных инвесторов, позже был сокращен или изменен до закрытия раунда финансирования — раунда, в ходе которого, согласно отчетам, компания была оценена примерно в 39 миллиардов долларов. Юристы истца заявляют, что смягчение дорожной карты безопасности, показанной инвесторам, может быть расценено как введение в заблуждение; компания отрицает обвинения и заявляет, что инженер был уволен из-за низкой производительности. Этот спор поднимает вопросы о том, как раскрываются инженерные риски в условиях циклов быстрого привлечения средств.

Почему это важно для робототехники и общественной безопасности

Человекоподобные роботы — это физически мощные устройства. Когда актуаторы, рычаги и управляющее ПО работают в связке, конечность, движущаяся на скорости, может передавать огромные переходные усилия. Биомеханические исследования и судебно-медицинские данные показывают, что пороги перелома черепа варьируются, но контролируемые лабораторные испытания и исследования ударов определяют типичные силы разрушения для черепа взрослого человека в несколько тысяч ньютонов при многих условиях — показатели, которые вполне достижимы для неограниченных промышленных приводов, если отсутствуют лимиты мощности и силы, ограждения или валидированные режимы безопасности. Эти технические реалии объясняют, почему проектирование систем безопасности и независимая проверка имеют решающее значение для превращения человекоподобных роботов из демонстрационных моделей в машины, способные работать рядом с людьми.

Стандарты и принятые методы инженерного контроля

Отраслевая практика безопасного взаимодействия человека и робота опирается на многоуровневое снижение рисков: тщательную оценку рисков на уровне системы, конструктивные решения, ограничивающие энергию удара, ограничение мощности и силы системы управления, датчики и надежные функции разделения или остановки, а также задокументированную валидацию на соответствие международным стандартам. Семейство стандартов безопасности роботов ISO — исторически ISO 10218 и техническое руководство ISO/TS 15066 — кодифицируют способы оценки рисков для различных областей тела и определяют приемлемые подходы, такие как ограничение мощности и силы, а также мониторинг скорости и разделения. Недавние изменения в стандартах продолжили интеграцию руководств по коллаборативным роботам в основную структуру промышленных роботов, что отражает рост числа реальных сценариев использования, где роботы и люди делят общее пространство.

Юридические и нормативные аспекты

С юридической точки зрения, жалоба сочетает в себе темы неправомерного увольнения и защиты осведомителей с возможным аспектом раскрытия информации инвесторам; если план безопасности, представленный инвесторам, был существенно изменен, это может привлечь внимание регуляторов или стать основанием для гражданских исков. Дело также появилось в тот момент, когда законодатели и регуляторы усиливают внимание к ИИ и робототехнике. Законодатели недавно предложили или продвинули меры, направленные на защиту сотрудников, сообщающих о рисках безопасности, связанных с ИИ, и продолжаются дебаты о том, какой уровень прозрачности и внешнего аудита должен требоваться для систем высокого риска. Эти политические усилия важны, так как одни лишь внутренние каналы связи могут оставить системные риски нерешенными в условиях высокого коммерческого давления.

Реакция компании и непосредственные последствия

Figure AI публично оспорила версию бывшего сотрудника, заявив, что увольнение произошло по причине плохой работы, и охарактеризовала обвинения как ложные. Адвокат истца утверждает, что законодательство Калифорнии защищает работников, сообщающих о небезопасных методах работы, и что суду необходимо будет оценить как фактические данные об инцидентах в лаборатории, так и наличие каких-либо мотивов для мести. Для инвесторов и клиентов этот иск увеличивает репутационные риски компании, которая вызвала значительный интерес в последних раундах финансирования. СМИ, освещающие дело, отмечают, что этот иск может стать одним из первых дел осведомителей, напрямую связанных с безопасностью человекоподобных роботов.

Что это значит для отрасли

  • Операционная осторожность: Стартапам, активно продвигающим аппаратное обеспечение и автономность, придется удвоить усилия по надежной, независимо проверенной валидации безопасности, чтобы успокоить инвесторов и регуляторов.
  • Ожидания по раскрытию информации: Процессы привлечения инвестиций, включающие технические брифинги, должны исключать избирательное представление мер защиты; аудиторы и юристы все чаще тщательно проверяют заявления об эксплуатационной готовности.
  • Политический импульс: Жалоба подкрепляет дискуссии о защите осведомителей среди работников сферы ИИ и робототехники, а также о необходимости новых режимов для выявления скрытых рисков безопасности.

Как может развиваться ситуация

В ближайшие недели стоит следить за несколькими сигналами: ответит ли Figure подробными инженерными опровержениями или данными сторонних испытаний; представит ли истец дополнительные доказательства, внутренние электронные письма и отчеты; а также за тем, прокомментируют ли ситуацию регуляторы и органы по стандартизации или начнут ли они расследование. Судебный процесс также может выявить конкретные технические факты о том, как фирма тестировала крутящий момент, удары и поведение в аварийных режимах — факты, которые могут повлиять на отраслевые нормы, если станут публичными в ходе разбирательства. Для исследователей, политиков и инженеров по безопасности это дело служит напоминанием о том, что технические проблемы создания физически способных роботов неотделимы от организационной практики и стимулов, которые их формируют.

Заключение

Гуманоидная робототехника находится на стыке программного обеспечения, аппаратных средств и человеческой уязвимости. Превращение впечатляющих демо-версий в безопасные и полезные машины требует не только лучших алгоритмов и актуаторов, но и культуры строгого проектирования безопасности и прозрачного управления. Этот иск, вероятно, станет ранним тестом на то, как взаимодействуют рынок, право и стандарты в условиях столкновения физических рисков и коммерческого ажиотажа.

— Mattias Risberg, Dark Matter. Базируется в Кельне, пишет о робототехнике, безопасности и технологической политике.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Каковы основные обвинения в иске осведомителя?
A Истец, бывший инженер по технике безопасности, утверждает, что его уволили после того, как он предупредил руководство о том, что прототипы гуманоидных роботов могут развивать огромную силу, достаточную даже для перелома черепа. В иске упоминается глубокая царапина в четверть дюйма, которую робот якобы оставил на стальной дверце холодильника, а также план безопасности, представленный инвесторам, который, по сообщениям, был смягчен перед раундом финансирования, оценившим компанию примерно в 39 миллиардов долларов; компания заявляет, что увольнение произошло по причинам, связанным с эффективностью работы.
Q Что утверждается в иске относительно раскрытия информации инвесторам?
A В иске утверждается, что подробный план безопасности, подготовленный для потенциальных инвесторов, был смягчен или изменен перед раундом финансирования, в ходе которого компания была оценена примерно в 39 миллиардов долларов; в нем подчеркивается, что размывание такой «дорожной карты» может быть приравнено к введению в заблуждение при раскрытии информации. Figure AI отрицает эти претензии и связывает увольнение с результатами работы сотрудника.
Q Какие стандарты и методы безопасности упоминаются для безопасного взаимодействия человека и робота?
A Отраслевая практика опирается на многоуровневое снижение рисков: оценку рисков на системном уровне, механические конструкции, ограничивающие энергию удара, ограничение мощности и силы в системе управления, датчики и надежные функции остановки, а также валидированные проверки на соответствие стандартам. В статье цитируются стандарты ISO 10218 и ISO/TS 15066, а также отмечаются недавние изменения, включающие руководства по коллаборативным роботам для безопасного взаимодействия человека и робота.
Q Какие потенциальные последствия для отрасли или будущие разработки обсуждаются в статье?
A В материале высказывается предположение, что стартапы, разрабатывающие оборудование и автономные системы, должны проводить тщательную, независимо проверенную валидацию безопасности, чтобы успокоить инвесторов и регуляторов. В статье подчеркивается текущая динамика в области защиты осведомителей и требований прозрачности для систем ИИ и робототехники высокого риска, а также отмечается, что регулирующие органы или органы по стандартизации могут выступить с комментариями или начать расследования по мере развития дела.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!