Yapay zekanın kurucularından biri medeniyetin neden sarsılabileceğini söylüyor
Derin öğrenmenin geliştirilmesinde merkezi bir figür olan Geoffrey Hinton, bir üniversite forumundaki halka açık söyleşiyi, teknoloji dünyasındakilerin çoğunun kaçınmayı tercih ettiği bir senaryoyu taslaklandırmak için kullandı: kitlesel işsizlik, zayıflayan demokratik hesap verebilirlik ve otonom sistemler tarafından daha istikrarsız hale getirilen bir uluslararası güvenlik ortamı. Konuşma, kısmen politika eleştirisi, kısmen bir alarm zili niteliğindeydi ve insan emeği üzerine tasarlanmış bir ekonomi ve siyasi yapının, bu emeğin kitlesel ölçekte ikame edilmesiyle nasıl başa çıkacağına dair bilindik kaygıları derinleştirdi.
Hinton'ın söyledikleri, yalın bir dille
Temel iddiası basit ve sarsıcıydı: Yapay zeka, insan seviyesindeki yetkinliğe yeterince geniş bir alanda ulaşırsa veya bunu aşarsa, şu anda insanların icra ettiği işler, yerlerini alacak bariz yeni roller olmaksızın otomatikleşebilir. Kendi ifadesiyle, bu işleri kaybeden insanlar yenilerini bulamayabilir ve bu durum ulusal ölçekte tüketimi ve sosyal bütünlüğü bozabilir. Bu argüman, tanık olduğumuz teknik ilerlemeyi sosyal bir geri besleme döngüsüne bağlıyor; daha az ücretli çalışan, daha az mal ve hizmet alıcısı anlamına gelir ve bu da birçok işletmenin piyasa temellerini aşındırır.
Araştırma laboratuvarından sosyal riske
Hinton’ın profili burada önem taşıyor: Güncel üretken modellerin temelini oluşturan sinir ağı yöntemlerinin inşasına yardımcı oldu. Bu birikim, hem mühendislik hem de araştırma gidişatını anlayan birinden geldiği için uyarılarına ekstra bir ağırlık katıyor. Daha önce, genel amaçlı, insan seviyesindeki yapay zekanın gelişini bir zamanlar düşündüğünden daha yakın vadeli bir olasılık olarak gördüğünü belirtmiş ve bir zamanlar marjinal görünen varoluşsal sonuçlar üzerine kamuoyu önünde düşüncelerini paylaşmıştı. Bu önceki değerlendirmeler, üniversitedeki açıklamalarının tonunu —teknik öngörü ve sosyal uyarının bir karışımını— şekillendirdi.
Çöküş pratikte nasıl görünebilir?
Hinton, birbirini güçlendirebilecek bir dizi mekanizmayı tanımladı. Ekonomik yerinden edilme, serveti yapay zeka ve çip üretim kapasitesi sahiplerinin elinde yoğunlaştırarak geniş tabanlı talebi azaltabilir. Vergi tabanları aşındığında ve nüfusun büyük bir kısmı geride kaldığını hissettiğinde siyasi kurumlar uyum sağlamakta zorlanabilir. Güvenlik tarafında ise gücün otomasyonunun —sınırlı insan denetimiyle çalışan ölümcül sistemlerin— askeri güç kullanmanın siyasi maliyetini düşürebileceğini, çatışmaları daha hızlı ve kontrol edilmesi daha zor hale getirebileceğini savundu. Tüm bunlar bir araya geldiğinde, münferit aksamalardan ziyade sistemik bir çöküş riski oluşturuyor.
Herkes hemfikir değil — ve kanıtlar karışık
Hinton’ın senaryosu tartışmaya açık. Bazı uzmanlar, önceki teknolojik devrimlerin belirli işleri yok ederken yenilerini yarattığını ve tarihin bir dizi uyarlanabilir sonuç sunduğunu belirtiyor. Mevcut dalgada, insan çalışanları yarı otonom araçlarla ikame etmeye yönelik birçok girişim pratik sınırlarla karşılaştı: Sistemler karmaşık uç durumlarla, güvenlik endişeleriyle ve insan denetimini devrede tutan teşviklerle mücadele ediyor. Bununla birlikte, gelişmekte olan akademik çalışmalar farklı bir risk türüne dikkat çekiyor: Kademeli ilerlemeler bile, büyük sistemler üzerindeki insan kontrolünü sinsi ama nihayetinde derin yollarla aşındırabilir. Mesele çöküşün kaçınılmaz olması değil, ciddi sistemik zarara giden yolların hem çeşitli hem de ciddi bir planlamayı hak edecek kadar makul olmasıdır.
Masadaki politika seçenekleri
Yanıtlar iki geniş kampa ayrılıyor: Teknolojiyi düzenlemeler, vergiler ve ihracat kontrolleri yoluyla yavaşlatmaya veya şekillendirmeye çalışanlar ile toplumu yeniden dağıtım, güvenlik ağları ve yeni kurumlar aracılığıyla aksamalardan korumayı amaçlayanlar. Fikirler, daha yüksek kurumlar vergisinden yeniden eğitim için kamu finansmanına, evrensel temel gelir pilot uygulamalarına ve otonom silahlar gibi çift kullanımlı sistemler için daha güçlü güvenlik kurallarına kadar uzanıyor. Bu önerilerin çoğunun mantığı basit: Yapay zekadan elde edilen kazanımlar hızla yoğunlaşırsa, piyasalar tek başına istikrarlı ve adil bir geçiş sağlayamaz. Bu nedenle, en kötü sonuçları önlemek isteyen politika yapıcıların ekonomi politikasını hedefli teknik yönetişimle birleştirmeleri gerekecektir.
Sırada ne var?
- Dağıtım hızı: Şirketlerin, emeğin yerini alan sistemleri büyük ölçekli hizmetlere ve iş akışlarına ne kadar hızlı dahil ettiği.
- İşgücü piyasası sinyalleri: Otomatikleştirilebilir olduğu iddia edilen mesleklerde işe alımlarda ölçülebilir düşüşler veya kalıcı ücret baskısı.
- Düzenleyici yanıtlar: Hükümetlerin yüksek riskli yapay zeka için bağlayıcı güvenlik kuralları benimseyip benimsemediği ve kazançları nasıl vergilendirdiği veya yeniden dağıttığı.
- Askeri kullanımlar: Devletlerin otonom sistem kullanımını hızlandırıp hızlandırmadığı ve zararlı kullanımı sınırlamak için normların veya antlaşmaların nasıl evrildiği.
Bu durum okuyucular için neden önemli?
Hinton’ın uyarıları kesin oldukları için değil, teknolojik kapasiteyi ekonomik ve siyasi kırılganlıkla harmanlayan riskleri somutlaştırdıkları için önemlidir. Modern ekonomilerin ölçeği ve hesaplama odaklı değişimin hızı, teşviklerdeki veya yeteneklerdeki küçük değişimlerin çok büyük sosyal etkilere sahip olabileceği anlamına gelir. Vatandaşlar için bu, tartışmanın artık tamamen akademik olmadığı anlamına geliyor: Tedarik, vergi politikası, sosyal güvenlik ağları ve Ar-Ge finansmanı konusundaki seçimler; yapay zekanın paylaşılan bir refah motoru mu yoksa gücü yoğunlaştıran ve kurumları istikrarsızlaştıran bir güç mü olacağını şekillendirecek.
Hinton'ı ister bir kıyamet tellalı ister gerekli bir uyarıcı olarak görün, müdahalesi merkezi bir soruyu kamuoyunun gündemine taşıyor: Günümüzdeki ilerlemelerden kim yararlanıyor ve bedeli kim ödüyor? Cevap, önümüzdeki on yıllarda işin, siyasetin ve güvenliğin sınırlarını çizecek.
— Mattias Risberg, Dark Matter
Comments
No comments yet. Be the first!