Hinton Uyardı: Yapay Zeka Toplumsal Yapıyı Bozabilir

Yapay Zeka
Hinton Warns AI Could Break Society
Georgetown'daki bir söyleşide, yapay zeka öncüsü Geoffrey Hinton karamsar bir öngörüde bulundu: Yapay zekanın hızla yayılması çalışanların yerini alabilir, siyaseti çarpıtabilir ve otonom savaşların önündeki engelleri azaltabilir. Hinton'ın uyarıları, politikaların teknolojiye ayak uydurup uyduramayacağı konusundaki tartışmaları alevlendiriyor.

Yapay zekanın kurucularından biri medeniyetin neden sarsılabileceğini söylüyor

Derin öğrenmenin geliştirilmesinde merkezi bir figür olan Geoffrey Hinton, bir üniversite forumundaki halka açık söyleşiyi, teknoloji dünyasındakilerin çoğunun kaçınmayı tercih ettiği bir senaryoyu taslaklandırmak için kullandı: kitlesel işsizlik, zayıflayan demokratik hesap verebilirlik ve otonom sistemler tarafından daha istikrarsız hale getirilen bir uluslararası güvenlik ortamı. Konuşma, kısmen politika eleştirisi, kısmen bir alarm zili niteliğindeydi ve insan emeği üzerine tasarlanmış bir ekonomi ve siyasi yapının, bu emeğin kitlesel ölçekte ikame edilmesiyle nasıl başa çıkacağına dair bilindik kaygıları derinleştirdi.

Hinton'ın söyledikleri, yalın bir dille

Temel iddiası basit ve sarsıcıydı: Yapay zeka, insan seviyesindeki yetkinliğe yeterince geniş bir alanda ulaşırsa veya bunu aşarsa, şu anda insanların icra ettiği işler, yerlerini alacak bariz yeni roller olmaksızın otomatikleşebilir. Kendi ifadesiyle, bu işleri kaybeden insanlar yenilerini bulamayabilir ve bu durum ulusal ölçekte tüketimi ve sosyal bütünlüğü bozabilir. Bu argüman, tanık olduğumuz teknik ilerlemeyi sosyal bir geri besleme döngüsüne bağlıyor; daha az ücretli çalışan, daha az mal ve hizmet alıcısı anlamına gelir ve bu da birçok işletmenin piyasa temellerini aşındırır.

Araştırma laboratuvarından sosyal riske

Hinton’ın profili burada önem taşıyor: Güncel üretken modellerin temelini oluşturan sinir ağı yöntemlerinin inşasına yardımcı oldu. Bu birikim, hem mühendislik hem de araştırma gidişatını anlayan birinden geldiği için uyarılarına ekstra bir ağırlık katıyor. Daha önce, genel amaçlı, insan seviyesindeki yapay zekanın gelişini bir zamanlar düşündüğünden daha yakın vadeli bir olasılık olarak gördüğünü belirtmiş ve bir zamanlar marjinal görünen varoluşsal sonuçlar üzerine kamuoyu önünde düşüncelerini paylaşmıştı. Bu önceki değerlendirmeler, üniversitedeki açıklamalarının tonunu —teknik öngörü ve sosyal uyarının bir karışımını— şekillendirdi.

Çöküş pratikte nasıl görünebilir?

Hinton, birbirini güçlendirebilecek bir dizi mekanizmayı tanımladı. Ekonomik yerinden edilme, serveti yapay zeka ve çip üretim kapasitesi sahiplerinin elinde yoğunlaştırarak geniş tabanlı talebi azaltabilir. Vergi tabanları aşındığında ve nüfusun büyük bir kısmı geride kaldığını hissettiğinde siyasi kurumlar uyum sağlamakta zorlanabilir. Güvenlik tarafında ise gücün otomasyonunun —sınırlı insan denetimiyle çalışan ölümcül sistemlerin— askeri güç kullanmanın siyasi maliyetini düşürebileceğini, çatışmaları daha hızlı ve kontrol edilmesi daha zor hale getirebileceğini savundu. Tüm bunlar bir araya geldiğinde, münferit aksamalardan ziyade sistemik bir çöküş riski oluşturuyor.

Herkes hemfikir değil — ve kanıtlar karışık

Hinton’ın senaryosu tartışmaya açık. Bazı uzmanlar, önceki teknolojik devrimlerin belirli işleri yok ederken yenilerini yarattığını ve tarihin bir dizi uyarlanabilir sonuç sunduğunu belirtiyor. Mevcut dalgada, insan çalışanları yarı otonom araçlarla ikame etmeye yönelik birçok girişim pratik sınırlarla karşılaştı: Sistemler karmaşık uç durumlarla, güvenlik endişeleriyle ve insan denetimini devrede tutan teşviklerle mücadele ediyor. Bununla birlikte, gelişmekte olan akademik çalışmalar farklı bir risk türüne dikkat çekiyor: Kademeli ilerlemeler bile, büyük sistemler üzerindeki insan kontrolünü sinsi ama nihayetinde derin yollarla aşındırabilir. Mesele çöküşün kaçınılmaz olması değil, ciddi sistemik zarara giden yolların hem çeşitli hem de ciddi bir planlamayı hak edecek kadar makul olmasıdır.

Masadaki politika seçenekleri

Yanıtlar iki geniş kampa ayrılıyor: Teknolojiyi düzenlemeler, vergiler ve ihracat kontrolleri yoluyla yavaşlatmaya veya şekillendirmeye çalışanlar ile toplumu yeniden dağıtım, güvenlik ağları ve yeni kurumlar aracılığıyla aksamalardan korumayı amaçlayanlar. Fikirler, daha yüksek kurumlar vergisinden yeniden eğitim için kamu finansmanına, evrensel temel gelir pilot uygulamalarına ve otonom silahlar gibi çift kullanımlı sistemler için daha güçlü güvenlik kurallarına kadar uzanıyor. Bu önerilerin çoğunun mantığı basit: Yapay zekadan elde edilen kazanımlar hızla yoğunlaşırsa, piyasalar tek başına istikrarlı ve adil bir geçiş sağlayamaz. Bu nedenle, en kötü sonuçları önlemek isteyen politika yapıcıların ekonomi politikasını hedefli teknik yönetişimle birleştirmeleri gerekecektir.

Sırada ne var?

  • Dağıtım hızı: Şirketlerin, emeğin yerini alan sistemleri büyük ölçekli hizmetlere ve iş akışlarına ne kadar hızlı dahil ettiği.
  • İşgücü piyasası sinyalleri: Otomatikleştirilebilir olduğu iddia edilen mesleklerde işe alımlarda ölçülebilir düşüşler veya kalıcı ücret baskısı.
  • Düzenleyici yanıtlar: Hükümetlerin yüksek riskli yapay zeka için bağlayıcı güvenlik kuralları benimseyip benimsemediği ve kazançları nasıl vergilendirdiği veya yeniden dağıttığı.
  • Askeri kullanımlar: Devletlerin otonom sistem kullanımını hızlandırıp hızlandırmadığı ve zararlı kullanımı sınırlamak için normların veya antlaşmaların nasıl evrildiği.

Bu durum okuyucular için neden önemli?

Hinton’ın uyarıları kesin oldukları için değil, teknolojik kapasiteyi ekonomik ve siyasi kırılganlıkla harmanlayan riskleri somutlaştırdıkları için önemlidir. Modern ekonomilerin ölçeği ve hesaplama odaklı değişimin hızı, teşviklerdeki veya yeteneklerdeki küçük değişimlerin çok büyük sosyal etkilere sahip olabileceği anlamına gelir. Vatandaşlar için bu, tartışmanın artık tamamen akademik olmadığı anlamına geliyor: Tedarik, vergi politikası, sosyal güvenlik ağları ve Ar-Ge finansmanı konusundaki seçimler; yapay zekanın paylaşılan bir refah motoru mu yoksa gücü yoğunlaştıran ve kurumları istikrarsızlaştıran bir güç mü olacağını şekillendirecek.

Hinton'ı ister bir kıyamet tellalı ister gerekli bir uyarıcı olarak görün, müdahalesi merkezi bir soruyu kamuoyunun gündemine taşıyor: Günümüzdeki ilerlemelerden kim yararlanıyor ve bedeli kim ödüyor? Cevap, önümüzdeki on yıllarda işin, siyasetin ve güvenliğin sınırlarını çizecek.

— Mattias Risberg, Dark Matter

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Geoffrey Hinton, hızlı yapay zeka yayılımı konusunda hangi senaryo hakkında uyarıda bulundu?
A Hızlı yapay zeka yayılımının, insanlar tarafından yürütülen birçok işi otomatikleştirerek insanları işsiz bırakabileceği ve üstlenecekleri bariz yeni roller bırakmayacağı konusunda uyardı; bu durum, ulusal ölçekte tüketimi ve toplumsal uyumu bozabilir. Teknik ilerleme hızını, daha az ücretli çalışanın mal ve hizmetlere olan talebi azaltarak ekonomileri istikrarsızlaştırabileceği toplumsal bir geri bildirim döngüsüne bağlamaktadır.
Q Hinton, sistemsel riski artırabilecek hangi mekanizmaları belirledi?
A Ekonomik yer değiştirme, serveti yapay zeka ve çip üretim kapasitesi sahiplerinin elinde yoğunlaştırabilir; bu da tabana yayılan talebi azaltarak parayı birçok haneden uzaklaştırabilir. Siyasi kurumlar, vergi tabanları aşındığında ve nüfusun büyük bir kısmı geride kaldığını hissettiğinde uyum sağlamakta zorlanabilir. Güvenlik cephesinde ise, düşük denetimli otonom silahlar savaşın siyasi maliyetini düşürerek çatışmaları hızlandırabilir.
Q Yazı, olası zararları gidermek için hangi politika seçeneklerini tanımlıyor?
A Politika seçenekleri iki geniş kampa ayrılmaktadır: kurallar, vergiler ve ihracat kontrolleri yoluyla teknolojiyi yavaşlatmak veya şekillendirmek için düzenlemeler yapmak; ve yeniden dağıtım, güvenlik ağları ve yeni kurumlar aracılığıyla toplumu aksamalara karşı korumak. Belirli fikirler arasında daha yüksek kurumlar vergisi, yeniden eğitim için kamu finansmanı, evrensel temel gelir pilot uygulamaları ve otonom silahlar gibi çift kullanımlı sistemler için daha güçlü güvenlik kuralları yer almakta olup, bu da yönetişime yönelik karma bir yaklaşımı yansıtmaktadır.
Q Politika yapıcılar gelişen riskleri ölçmek için hangi göstergeleri izlemelidir?
A Politika yapıcılar, büyük ölçekli hizmetlerde iş gücünün yerini alan yapay zekanın yayılım hızını ve işe alımlardaki düşüşler veya otomatikleştirilebilecek mesleklerdeki kalıcı ücret baskısı gibi iş gücü piyasası sinyallerini izlemelidir. Ayrıca, yüksek riskli yapay zeka için güvenlik kuralları ile vergi veya yeniden dağıtım değişiklikleri de dahil olmak üzere düzenleyici tepkileri takip etmeli ve otonom sistemlerin stratejik kararları ve normları nasıl etkilediğini görmek için askeri kullanımları izlemelidir.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!