Yapay Zeka vs. Pentagon: Katil Robot Krizi

Yapay Zeka
AI vs. Pentagon: Killer Robots Standoff
Anthropic'in kitlesel gözetleme ve tam otonom silahlar da dahil olmak üzere “her türlü yasal kullanıma” izin verecek Pentagon sözleşme dilini reddetmesi, ticari yapay zekanın ordu tarafından kullanım şeklini yeniden şekillendirebilecek bir krizi tetikledi.

Pentagon'un, ordunun ticari modelleri yerel kitlesel gözetim ve otonom öldürücü güç dahil olmak üzere "her türlü yasal kullanım" için kullanmasına izin verecek yeni sözleşme dilini dayatmasından bir haftadan kısa bir süre sonra Anthropic "hayır" dedi. Şirketin CEO'su Savunma Bakanlığı'nın talebini kamuoyuna açıkça reddetti ve bu durum savunma bakanının bir tedarik zinciri kara listesi ile tehdit etmesine, başkanın ise federal kurumlara Anthropic hizmetlerini kullanmayı durdurma talimatı vermesine yol açan bir gerilimi tetikledi. Çatışmanın merkezindeki ifade olan "YZ vs. Pentagon: katil robotlar", artık özel şirketlerin, hükümet alıcıları güçlü modellere kısıtlamasız erişim istediğinde neleri yasal ve etik olarak reddedebileceğine dair ulusal bir tartışmayı çerçeveliyor.

YZ vs. Pentagon: katil robotlar ve "her türlü yasal kullanım" talebi

Mevcut çatışma sözleşme kaynaklı olsa da sonuçları çok daha geniş kapsamlı. Ocak ayında Pentagon, yapay zeka ürünlerini "her türlü yasal kullanım" için kullanmasına izin verecek güncellenmiş şartları dolaşıma soktu; Pentagon yetkilileri bu dilin birçok farklı programdaki parça parça kısıtlamalardan kaçınmayı amaçladığını söylüyor. Anthropic için anlaşmazlık noktaları açık ve netti: Amerikalıların yerel kitlesel gözetimine hayır ve devrede bir insan olmaksızın tam otonom öldürücü silahlara hayır. Bunlar şirket tarafından, güvenlik ve güvenilirlik endişelerine dayanan kurumsal düzeydeki kırmızı çizgiler olarak sunuldu.

YZ vs. Pentagon: katil robotlar, kitlesel gözetim ve kurumsal kırmızı çizgiler

Anthropic'in "her türlü yasal kullanım" için evrensel bir lisans vermeyi reddeden tutumu dikkat çekici çünkü bildirilenlere göre birçok rakip Pentagon'un bu dilini kabul etti. Bu ayrışma, benzer ticari kararları de facto politika tercihlerine dönüştürdü: "Evet" diyen bir şirket, ordunun minimum müzakere ile yürütebileceği kullanım alanlarını etkili bir şekilde genişletiyor; "hayır" diyen bir şirket ise hükümeti başka sağlayıcılar bulmaya veya bu kabiliyeti kendisi inşa etmeye zorluyor. Teknoloji çalışanları, sivil özgürlük grupları ve yatırımcılar, ulusal güvenlik alıcılarının finansal ve siyasi gücüyle karşı karşıya kaldıklarında bu kurumsal kırmızı çizgilerin korunup korunmayacağını izliyor.

Otonom silahların teknik ve etik riskleri

Muhabirler, mühendisler ve etik uzmanları "katil robotlar" gibi kısaltmalar kullandıklarında, anlamlı bir insan kontrolü olmaksızın öldürücü güç seçebilen ve uygulayabilen sistemleri kastediyorlar. Teknik sorunlar oldukça dirençli: algılama hataları, yanıltıcı yanlış pozitifler, bağlamsal yanlış anlamalar ve öngörülemeyen yazılım hatalarının tümü çatışmada feci sonuçlar doğurabilir. Yapay zeka modelleri, veriler üzerinde eğitilmiş istatistiksel örüntü eşleştiricileridir; yüksek riskli, belirsiz ortamlarda ahlaki aktörler veya güvenilir karar vericiler değillerdir.

Etik riskler teknik hataların çok ötesine geçiyor. Otonom öldürücü güç; sorumluluk (bir makine öldürdüğünde kim sorumludur?), tırmanma (düşmanlar otomatik hedeflemeye nasıl karşılık verir?) ve ayrımcılık (makine sistemleri, sivilleri yanlışlıkla muharip olarak tanımlayan önyargıları tekrarlayabilir veya artırabilir) gibi soruları gündeme getiriyor. Birçok etik uzmanı, karar döngülerinin otomasyonla hızlandırılması durumunda çatışmaya girme konusundaki siyasi eşiğin düşeceği konusunda da uyarıda bulunuyor. Bu nedenlerle bazı politika yapıcılar ve savunucular, insan kontrolü olmadan çalışan sistemlere yönelik katı sınırlamalar veya yasaklar getirilmesi için baskı yaparken, diğerleri sistemlerin güvenli olduğu kanıtlanana kadar dikkatle sınırlandırılmış Ar-Ge ve güçlü insan denetimi gerekliliklerini savunuyor.

Sözleşme hukuku, tedarik zinciri riski ve Pentagon'un YZ destekli gözetimi nasıl düzenlediği

Pentagon, ticari teknolojilerin kullanımını öncelikle sözleşme dili, onaylar ve satın alma politikası aracılığıyla düzenliyor; doğrudan YZ kullanım durumlarını ele alan kapsamlı bir yasa ile değil. Bakanlık, yüklenicilerden "her türlü yasal kullanımı" kabul etmelerini istediğinde, geniş yetki elde etmek için sözleşme şartlarını bir kaldıraç olarak kullanıyor; bu dil, birçok iş emri ve programda müzakerelerin tekrarlanmasını önlemeyi amaçlıyor. Ancak "yasal" ifadesinin kolluk kuvvetleri veya istihbarat kullanımlarıyla bağlantılı yerel gözetimi de kapsayabileceği durumlarda, bu durum anayasal ve yasal soruları da beraberinde getiriyor.

Bir tedarikçiyi "tedarik zinciri riski" olarak etiketlemek, somut sonuçları olan idari bir araçtır: federal kurumların ve büyük savunma yüklenicilerinin bir tedarikçiden uzaklaşmasına neden olabilir ve üçüncü taraf entegrasyonlarını sekteye uğratabilir. Pentagon'un Savunma Üretim Yasası'nı veya benzer yetkileri kullanma tehdidi, satın alma yasasının uyumu zorlamak için bir kaldıraç olabileceğini vurguluyor; ancak bu kaldıraçlar siyasi olarak tartışmalıdır ve davalara yol açabilir. Bu nedenle kırmızı çizgileri kimin belirlediği; şirket politikası, hükümet içi yazışmalar, kongre denetimi ve zaman zaman yargı denetiminin karıştığı tartışmalı bir alan haline geliyor.

Katil robotlar gerçek bir tehdit mi? Uluslararası kurallar ve mevcut sınırlar

Otonom sistemlerin öldürücü güç için kullanılma riski varsayımsal değildir: ordular algılama, hedefleme ve vuruş sistemlerinde aktif olarak otomasyonun peşinde koşuyor. Bununla birlikte, dünya henüz tam otonom öldürücü silahlar üzerinde bağlayıcı bir uluslararası yasak konusunda uzlaşmış değil. Birleşmiş Milletler Belirli Konvansiyonel Silahlar Sözleşmesi, öldürücü otonom silah sistemleri hakkında yıllardır süren görüşmelere ev sahipliği yaptı ancak bu görüşmeler şu ana kadar bu tür sistemleri yasaklayan bir anlaşma üretmedi. STK'lar, bazı devletler ve teknoloji şirketleri koalisyonları güçlü uluslararası sınırlamalar için baskı yaparken; diğer devletler operasyonel özgürlük arayışıyla anlaşma kısıtlamalarına direniyor.

Ulusal düzeyde, politika yaklaşımları parçalı kalmaya devam ediyor: bazı ülkeler sıkı insan denetimi kurallarını savunurken, diğerleri yetenek ve caydırıcılığa vurgu yapıyor. Evrensel bir anlaşmanın yokluğu, günümüzde yönetişimin büyük ölçüde ihracat kontrolleri, satın alma kararları ve kurumsal politikalar tarafından şekillendirildiği anlamına geliyor. Bu parçalanma, tedarikçi kırmızı çizgilerini ve özel sözleşmeleri sonuç odaklı kılan şeydir; bunlar düzenleyici bir boşluğu doldurur ancak baskı altında geri alınabilirler.

Sırada ne var ve bu neden önemli

Atılacak ilk adımlar yasal ve siyasi olacaktır. Anthropic, işine zarar veren her türlü atamayı yargıya taşıyacağının sinyalini verdi; Pentagon ise yüklenicilere ve ana tedarikçilere uyumsuz bir tedarikçiye olan bağımlılığı en aza indirmeleri için baskı yapabilir. Kongre oturumlar düzenleyebilir ve çeşitli kamu yararı grupları denetim talep edecektir. Pratik olarak, Anthropic'in modellerini halihazırda kullanan federal programlar, kurumların kullanımı durdurma emrine uyması durumunda geçiş planlarına ihtiyaç duyacaktır ki bu karmaşık, pahalı ve potansiyel olarak aksatıcı bir süreçtir.

Mahkeme salonunun ve bütçe kalemlerinin ötesinde, bu olay daha geniş bir soruyu zorunlu kılıyor: Ulusal güvenlik müşterileri operasyonel gerekliliği savunurken, ticari YZ tedarikçilerinin hükümetlerin teknolojilerini nasıl kullanacağını sözleşmelerle sınırlamasına izin verilmeli mi? Cevap; gelecekteki savaşları, yerel polisliği ve kamu-özel güvenlik ortaklıklarının mimarisini şekillendirecektir. Eğer pazar gücü ve itibar baskısı artık tehlikeli kullanımlar üzerindeki temel frenlerse, acil savunma talepleri karşısındaki dayanıklılıkları, demokratik toplumların YZ etrafında anlamlı korkuluklar kurup kuramayacağını belirleyecektir.

Anthropic ve Pentagon arasındaki çatışma, bu nedenle sadece bir şirketin şartları ve bir hükümetin tedarik öncelikleri üzerine bir anlaşmazlık değil; öncü sistemler devlet gücüyle karşılaştığında politikanın, teknolojinin ve etiğin nasıl çarpıştığına dair canlı bir vaka çalışmasıdır. Şirketlerin, mahkemelerin ve yasama organlarının bu konuyu nasıl çözeceği, gelecek nesil askeri YZ'nin insan muhakemesi ve demokratik denetimle mi yoksa sözleşme maddeleri ve kapalı kapılar ardındaki muafiyetlerle mi sınırlandırılacağını etkileyecektir.

Kaynaklar

  • ABD Savunma Bakanlığı (kamuoyuna açıklamalar ve satın alma notları)
  • Anthropic (şirket basın açıklamaları)
  • Beyaz Saray (kamuoyuna açıklamalar ve idari talimatlar)
  • Birleşmiş Milletler — Belirli Konvansiyonel Silahlar Sözleşmesi (CCW) toplantı raporları ve özetleri
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Otonom silahların ve askeri kullanımda yapay zekanın etik riskleri nelerdir?
A Otonom silahlar, sivilleri savaşçılardan ayırt edememe, yüz tanıma ve biyometrik verilere dayalı hedeflemede azınlıkları orantısız şekilde etkileyen olası yanlılıklar ve yaşam ve ölüm kararları üzerinde anlamlı insan kontrolünün kaybı dahil olmak üzere birçok kritik etik risk sunmaktadır. Algoritmalar insani değerleri anlayamaz veya ahlaki yargılarda bulunamaz; bu da otonom sistemlerin sivil kayıplara neden olduğu veya belirli gruplara karşı seçici şiddeti mümkün kıldığı durumlarda hesap verebilirlik konusunda endişelere yol açmaktadır.
Q Pentagon, yapay zeka destekli gözetleme ve kitle gözetleme programlarını nasıl düzenliyor?
A Arama sonuçları, Pentagon'un yapay zeka destekli gözetleme ve kitle gözetleme programlarına yönelik düzenlemeleri hakkında spesifik bilgiler içermemektedir. Bu soruyu doğru bir şekilde yanıtlamak için Pentagon'un gözetleme politikası ve denetim mekanizmalarına odaklanan ek kaynaklara ihtiyaç duyulacaktır.
Q Yapay zeka savunma politikasında 'kırmızı çizgiler' ne anlama gelir ve bunları kim belirler?
A Arama sonuçları, yapay zeka savunma politikasındaki 'kırmızı çizgilerin' açık tanımlarını sunmamakta veya bunları kimin belirlediğini tanımlamamaktadır. Kaynaklar otonom silahlar için ahlaki ve yasal sınırlara atıfta bulunsa da, 'kırmızı çizgiler' kavramını veya bunları oluşturmaktan sorumlu kurumsal aktörleri özel olarak ele almamaktadır.
Q Katil robotlar gerçek bir tehdit mi ve bunları önlemek için hangi politikalar mevcut?
A Katil robotlar gerçekçi bir yakın vadeli tehdidi temsil etmektedir; uzmanlar otonom silah konuşlandırmasının onlarca yıl yerine birkaç yıl içinde mümkün olduğunu belirtmektedir. Ölümcül otonom silah sistemlerinin tamamen yasaklanması çağrıları da dahil olmak üzere birden fazla politika önerilmiştir; ancak ABD hükümeti şu anda kapsamlı bir yasağı desteklememekte, bunun yerine etik endişeleri 2018 tarihli bir teknik belge (white paper) gibi politika çerçeveleri aracılığıyla ele almaktadır.
Q Ölümcül otonom silahları düzenlemeye veya yasaklamaya yönelik uluslararası çabaların mevcut durumu nedir?
A Ölümcül otonom silahları düzenlemeye yönelik uluslararası çabalar henüz tamamlanmamıştır ve günümüz itibarıyla yürürlükte olan bağlayıcı bir küresel yasak bulunmamaktadır. Temmuz 2015'te uluslararası bir yapay zeka konferansında yasak çağrısı yapan açık bir mektup yayınlanmış olsa da uzmanlar, yapay zeka teknolojisinin askeri faydası nedeniyle tam bir yasak için uluslararası bir fikir birliğine varılmasının gerçekçi olmadığını kabul etmektedir; ancak otonom silah belirsizliğini sınırlayacak ve anlamlı insan kontrolünü sağlayacak çerçevelere ilişkin tartışmalar devam etmektedir.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!