Figure AI, 'Kafatası Çatlatan' Robotlar Nedeniyle İhbarcı Davasıyla Karşı Karşıya

Robotik
Figure AI Faces Whistleblower Suit Over ‘Skull‑Fracturing’ Robots
Eski bir güvenlik mühendisi, girişimin insansı robotlarının bir insan kafatasını çatlatacak kadar güçlü olduğu ve büyük bir yatırım turunun ardından güvenlik planlarının zayıflatıldığı yönünde yöneticileri uyardıktan sonra işten çıkarıldığını iddia ederek Figure AI'a dava açtı.

Eski güvenlik mühendisi Figure AI'a dava açarak ciddi güvenlik endişelerini gündeme taşıdı

İnsansı robotların yüksek profilli geliştiricisi humanoid robots Figure AI, eski bir kıdemli güvenlik mühendisinin, makinelerin bir insanın kafatasını çatlatmaya yetecek güç de dahil olmak üzere ölümcül zararlar verebileceği konusunda şirket liderlerini uyardıktan sonra işten çıkarıldığını iddia ettiği bir federal whistleblower davasıyla karşı karşıya kaldı. Kaliforniya Kuzey Bölge Mahkemesi'nde açılan dava dilekçesinde, davacının şirket içinde belgelenmiş güvenlik itirazlarında bulunduğu ve şirketin daha sonra yatırımcılara sunulan güvenlik yol haritasını değiştirdiği iddia ediliyor.

Davadaki iddialar neler?

Medya raporlarında baş ürün güvenliği mühendisi olarak tanımlanan davacı, şirketin insansı prototiplerinin tehlikeli derecede büyük kuvvetler uygulayabileceği konusunda üst düzey yöneticileri defalarca uyardığını söylüyor. Başvurularda belirtilen örnekler arasında, bir robot arızasının çelik bir buzdolabı kapısında çeyrek inçlik bir yarık açtığı bildirilen bir olay yer alıyor; dava, riskin gerçek ve öngörülebilir olduğunu savunmak için bu somut hadiseyi kullanıyor. Şikayet dilekçesinde, mühendisin endişelerini CEO ve baş mühendis de dahil olmak üzere yöneticilere ilettiği ve kapsamlı, nihai bir güvenlik şikayeti olarak tanımladığı metni gönderdikten kısa bir süre sonra işine son verildiği belirtiliyor.

Yatırımcı sunumları ve 'içi boşaltılmış' güvenlik planı hakkındaki iddialar

Ayrıca dava, mühendisin potansiyel yatırımcılar için hazırladığı ayrıntılı bir güvenlik planının, değerleme raporlarına göre şirkete yaklaşık 39 milyar dolar değer biçen yatırım turu kapanmadan önce zayıflatıldığını veya değiştirildiğini iddia ediyor. Davacının avukatları, yatırımcılara sunulan bir güvenlik yol haritasının seyreltilmesinin yanıltıcı beyanlar anlamına gelebileceğini söylüyor; şirket ise iddiaları reddederek mühendisin performans nedenleriyle kovulduğunu belirtiyor. Bu ihtilaf, hızlı fon toplama döngüleri sırasında mühendislik risk beyanlarının nasıl ele alındığına dair soruları gündeme getiriyor.

Bu durum robotik ve kamu güvenliği için neden önemli?

İnsansı robotlar fiziksel olarak güçlü cihazlardır. Aktüatörler, kaldıraç etkisi ve kontrol yazılımı birleştiğinde, hızla hareket eden bir uzuv büyük geçici kuvvetler uygulayabilir. Biyomekanik çalışmalar ve adli veriler kafatası kırılma eşiklerinin değiştiğini göstermektedir, ancak kontrollü laboratuvar testleri ve darbe çalışmaları, birçok koşul altında yetişkin kafatasları için tipik kırılma kuvvetlerini birkaç bin newton seviyesine koymaktadır; bu rakamlar, güç ve kuvvet sınırları, koruyucular veya doğrulanmış güvenlik modları mevcut değilse, kısıtlanmamış endüstriyel aktüatörlerle ulaşılabilir değerlerdir. Bu teknik gerçekler, insansı robotları demolardan insanların yanında çalışabilen makinelere dönüştürmek için güvenlik mühendisliğinin ve bağımsız doğrulamanın neden merkezi bir öneme sahip olduğunun sebebidir.

Standartlar ve kabul görmüş mühendislik kontrolleri

Güvenli insan–robot etkileşimi için endüstri uygulaması katmanlı risk azaltmaya dayanır: dikkatli sistem düzeyinde risk değerlendirmeleri, darbe enerjisini sınırlayan mekanik tasarım seçimleri, kontrol sistemi güç ve kuvvet sınırlaması, sensörler ve güvenilir ayırma veya durdurma fonksiyonları ve uluslararası standartlara karşı belgelenmiş doğrulama. Robot güvenliği standartlarının ISO ailesi —tarihsel olarak ISO 10218 ve ISO/TS 15066'daki teknik rehberlik— farklı vücut bölgeleri için risklerin nasıl değerlendirileceğini kodlar ve güç ve kuvvet sınırlama ile hız ve ayırma izleme gibi kabul edilebilir yaklaşımları tanımlar. Son revizyonlar, robotların ve insanların alanı paylaştığı artan gerçek dünya kullanım senaryolarını yansıtacak şekilde, iş birlikçi robot rehberliğini temel endüstriyel robot çerçevesine entegre etmeye devam etmiştir.

Hukuki ve düzenleyici çerçeve

Hukuki tarafta şikayet, haksız fesih ve whistleblower temalarını olası bir yatırımcı bilgilendirme açısıyla birleştiriyor; yatırımcılara gösterilen bir güvenlik planı önemli ölçüde değiştirilmişse, bu durum düzenleyicilerin incelemesini çekebilir veya hukuki tazminat taleplerine yol açabilir. Dava ayrıca, yasa koyucuların ve düzenleyicilerin odaklarını yapay zeka ve robotiğe keskinleştirdikleri bir döneme denk geliyor. Kanun koyucular son zamanlarda, yapay zeka ile ilgili güvenlik risklerini bildiren çalışanları korumaya yönelik önlemler önerdi veya ilerletti; yüksek riskli sistemler için ne kadar şeffaflık ve dış denetim gerektiği konusundaki tartışmalar devam ediyor. Bu politika çabaları önemlidir çünkü ticari baskılar yüksek olduğunda tek başına iç kanallar sistemik riskleri ele alınmadan bırakabilir.

Şirketin yanıtı ve ani yansımalar

Figure AI, eski çalışanın anlatımına kamuoyu önünde itiraz ederek, işten çıkarmanın performans nedenleriyle olduğunu söyledi ve iddiaları asılsız olarak nitelendirdi. Davacının avukatı, Kaliforniya yasalarının güvensiz uygulamaları bildiren işçileri koruduğunu ve mahkemelerin hem laboratuvar olaylarının olgusal kaydını hem de herhangi bir misilleme amacının olup olmadığını tartması gerekeceğini savundu. Yatırımcılar ve müşteriler için dava, son turlarda büyük finansman ilgisi çeken bir şirket için manşet riskini artırıyor. Başvuruyu bildiren medya kuruluşları, davanın açıkça insansı robot güvenliğiyle bağlantılı ilk whistleblower vakalarından biri olabileceğini kaydetti.

Sektör için ne anlama geliyor?

  • Operasyonel ihtiyat: Donanım ve otonomi konusunda sınırları zorlayan girişimlerin, yatırımcıları ve düzenleyicileri rahatlatmak için sağlam, bağımsız olarak denetlenmiş güvenlik doğrulamalarına daha fazla odaklanması gerekecektir.
  • Bilgilendirme beklentileri: Teknik bilgilendirmeleri içeren kaynak yaratma süreçleri, risk azaltma önlemlerinin seçici sunumuna karşı tetikte olmalıdır; denetçiler ve hukuk müşavirleri operasyonel hazırlık hakkındaki iddiaları giderek daha fazla incelemektedir.
  • Politika ivmesi: Şikayet, yapay zeka ve robotik çalışanları için whistleblower korumaları ve gizli güvenlik risklerini ortaya çıkarmak için yeni rejimlerin gerekli olup olmadığına dair politika tartışmalarını güçlendiriyor.

Hikaye nasıl gelişebilir?

Önümüzdeki haftalarda birkaç sinyale dikkat edin: Figure'ün ayrıntılı mühendislik reddiyeleriyle veya üçüncü taraf test verileriyle yanıt verip vermeyeceği; davacının ek kanıtlar sunup sunmayacağı veya şirket içi e-postaları ve raporları ortaya koyup koymayacağı; ve düzenleyicilerin veya standart kuruluşlarının yorum yapıp yapmayacağı veya soruşturma açıp açmayacağı. Hukuki süreç, firmanın tork, darbe ve arıza emniyeti davranışlarını nasıl test ettiğine dair ayrıntılı teknik gerçekleri de su yüzüne çıkarabilir — bu gerçekler, dava yoluyla halka açılmaları durumunda endüstri normları için önemli olabilir. Araştırmacılar, politika yapıcılar ve güvenlik mühendisleri için bu dava, fiziksel olarak yetenekli robotlar inşa etmenin teknik zorluklarının kurumsal uygulamalardan ve onları şekillendiren teşviklerden ayrılamaz olduğunu hatırlatıyor.

Son düşünce

İnsansı robotik; yazılım, donanım ve insan savunmasızlığının kesişme noktasında yer alır. Etkileyici demoları güvenli ve kullanışlı makinelere dönüştürmek, yalnızca daha iyi algoritmalar ve aktüatörler değil, aynı zamanda titiz bir güvenlik mühendisliği kültürü ve şeffaf bir yönetişim gerektirir. Bu davanın, fiziksel risk ve ticari ivme çarpıştığında piyasanın, hukukun ve standartların nasıl etkileşime girdiğine dair erken bir test olması muhtemeldir.

— Mattias Risberg, Dark Matter. Köln merkezli; robotik, güvenlik ve teknoloji politikaları üzerine haberler yapıyor.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q İhbarcı davasındaki temel iddialar nelerdir?
A Eski bir güvenlik mühendisi olan davacı, insansı prototiplerin kafatasını kırabilecek kadar büyük kuvvetler uygulayabileceği konusunda yöneticileri uyardıktan sonra kovulduğunu söylüyor. Dava, bir robotun çelik bir buzdolabı kapısında açtığı iddia edilen çeyrek inçlik bir yarığa ve yaklaşık 39 milyar dolar değerindeki yatırım turu öncesinde zayıflatıldığı bildirilen, yatırımcılara sunulan güvenlik planına işaret ediyor; şirket ise işten çıkarmanın performans nedenleriyle olduğunu belirtiyor.
Q Dava, yatırımcı bildirimleri hakkında ne iddia ediyor?
A Dava, potansiyel yatırımcılar için hazırlanan ayrıntılı bir güvenlik planının, şirkete yaklaşık 39 milyar dolar değer biçilen yatırım turundan önce zayıflatıldığını veya değiştirildiğini iddia ediyor; böyle bir yol haritasının yumuşatılmasının yanıltıcı beyanlar anlamına gelebileceğini öne sürüyor. Figure AI iddiayı reddediyor ve işten çıkarmayı performansa dayandırıyor.
Q Güvenli insan-robot etkileşimi için hangi güvenlik standartları ve uygulamalarından bahsediliyor?
A Sektör uygulamaları katmanlı risk azaltımına dayanmaktadır: sistem düzeyinde risk değerlendirmeleri, darbe enerjisini sınırlayan mekanik tasarımlar, kontrol sistemi güç ve kuvvet sınırlaması, sensörler ve güvenilir durdurma işlevleri ile standartlara karşı onaylanmış kontroller. Makale, güvenli insan-robot etkileşimi için işbirlikçi robot rehberliğini entegre eden son revizyonlara atıfta bulunarak ISO 10218 ve ISO/TS 15066 standartlarını belirtiyor.
Q Makale hangi olası sektörel etkileri veya gelecekteki gelişmeleri tartışıyor?
A Yazı, donanım ve otonomi alanında ilerleyen girişimlerin, yatırımcıları ve düzenleyicileri ikna etmek için sağlam, bağımsız olarak denetlenmiş güvenlik doğrulamaları yürütmeleri gerektiğini öne sürüyor. İhbarcı korumaları ve yüksek riskli yapay zeka ve robotik için şeffaflık gereklilikleri konusundaki mevcut politika ivmesine dikkat çekiyor ve dava ilerledikçe düzenleyici kurumların veya standart kuruluşlarının yorum yapabileceğini veya inceleme başlatabileceğini belirtiyor.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!