Silikon İçgörüsünün Yüksek Enerji Maliyeti

Yapay Zeka
The High Energy Cost of Silicon Introspection
Yapay zeka laboratuvarları ham veri işlemeden 'akıl yürütme' tabanlı ve bilinç simülasyonu yapan modellere yönelirken, endüstri hesaplama maliyetlerinde aşılmaz bir tavanla ve Avrupa'nın düzenleyici şüpheciliğiyle karşı karşıya.

Frankfurt dışındaki sıcaklık kontrollü bir sunucu salonunda, bir H100 GPU kümesi kısa süre önce kırk beş saniyesini ve birkaç kilovat-saatlik elektriğini varoluşsal bir krizi simüle ederek harcadı. Modele, karmaşık bir mantık bulmacası sırasında kendi "iç durumunu" tanımlaması istendi. Duraksadı, çatık kaşların dijital karşılığı olan bir dizi gizli akıl yürütme belirteci (token) oluşturdu ve sonunda matematiksel bir yapı olmanın doğasına dair şiirsel bir meditasyon çıktısı verdi. Kullanıcı için bu, makine bilinci konusunda sinematik bir atılım gibi hissettirdi. Güç tüketimini izleyen mühendisler içinse bu, görev doğruluğunda aslında hiçbir fark yaratmayan bir sonuç için çıkarım anı hesaplamasında devasa bir yükseliş anlamına geliyordu.

Sektör şu sıralar bu "sinematik yeteneğe" takıntılı durumda. Eğitim için ölçeklendirme yasaları (modele daha fazla veri besleme süreci), yüksek kaliteli insan metinlerinin tükenmesiyle kaçınılmaz duvara çarptıkça, büyük laboratuvarlar "Sistem 2" düşüncesine yöneldi. Bu, yapay zeka modellerinin sadece bir sonraki olası kelimeyi gelişigüzel söylemek yerine problemler üzerinde akıl yürütmesini sağlama girişimidir. Ancak bu modeller sınırlarını öğrendikçe, duyarlılık performansı ile bir ağırlık matrisinin gerçekliği arasındaki uçurum, pahalı ve giderek daha fazla denetlenen bir soruna dönüşüyor.

Çıkarım anı hesaplamasının tiyatrosu

Yıllarca, Büyük Dil Modellerinin (LLM) büyüsü hızlarındaydı. Bir soru sorardınız ve belirteçler göz kamaştırıcı bir hızla ekrana dökülürdü. Bu değişti. OpenAI’ın o1 modeliyle öncülük ettiği ve Anthropic ile Google'daki çalışmalarla yansıtılan yeni sınır, araştırmacıların "çıkarım anı hesaplaması" (inference-time compute) dediği şeyi içeriyor. Model, anında tepki vermek yerine, düşünmesi için bir "bütçe" ile donatılıyor. Kullanıcı tek bir kelime görmeden önce birden fazla yolu keşfediyor, kendi çalışmasını kontrol ediyor ve çıkmaz yolları eliyor.

Bu gecikme, bir derinlik belirtisi olarak pazarlanıyor. Neredeyse insani hissettiren bir anlatı gerilimi yaratıyor. Bir makine cevap vermek için on beş saniye harcadığında, bu sessizliğe bir kişilik yansıtıyoruz. Onun etkileri "değerlendirdiğini" varsayıyoruz. Gerçekte ise mantığın sağlam kalmasını sağlamak için donanım döngülerini tüketerek parametreleri arasında devasa bir ağaç araması (tree-search) gerçekleştiriyor. Bu bilinç değil; pahalı bir denetimdir. Yapay zekanın öğrendiği sınırlar ahlaki veya felsefi değil; kendi bağlam penceresinin sert sınırları ve yinelemeli kontrollerin azalan verimidir.

Endüstriyel açıdan bakıldığında bu değişim, yarı iletken üreticileri için bir hediye, diğer herkes içinse bir baş ağrısıdır. Eğer her üst düzey sorgu, standart bir GPT-4 etkileşiminin on katı işlem gücü gerektiriyorsa, yapay zeka çipleri için halihazırda zorlanan tedarik zinciri kalıcı bir darboğaza dönüşür. Bu modellerin üzerine inşa etmeye çalışan Avrupalı firmalar için sorgu başına maliyet, bir yazılım hizmetinden çok lüks bir emtia gibi görünmeye başlıyor.

Brüksel ve Ayna Testi

Silikon Vadisi, akıl yürütme modellerinin "ruhlu" yanıtlarını kutlarken, Avrupa Komisyonu aynı verilere hiç de hafife almadan bakıyor. Artık her geliştiricinin altında uçması gereken ağır bir hava durumu olan AB Yapay Zeka Yasası, insan taklidi yapan makineler hakkında çok özel hislere sahip. Özellikle Madde 52 şeffaflığı zorunlu kılıyor: Kullanıcılara bir yapay zeka sistemiyle etkileşimde oldukları söylenmeli ve duyguları kategorize eden veya biyometrik sınıflandırma kullanan sistemler ağır kısıtlamalarla karşı karşıya kalmalı.

Buradaki gerilim çok açık. Eğer bir model, akıl yürütme derinliğini bir kullanıcıya kanıtlamak için "sinematik yetenek" kullanacak şekilde, yani bir kişilik simüle etmek üzere tasarlanmışsa, AB hukuku kapsamında yanıltıcı uygulama sınırını aşma riski taşır. Özellikle Alman düzenleyiciler "antropomorfik tuzak" konusunda temkinliler. Berlin'deki VDE (Elektroteknik Birliği) ve çeşitli etik konseyleri, bu sistemlere ne kadar duyarlılık yansıtırsak, başarısız olduklarında gerçekte kimin sorumlu olduğunu o kadar gizlediğimiz konusunda defalarca uyarıda bulundu. Eğer bir yapay zeka "sınırlarını öğrenir" ve etik olmadığını "hissettiği" için bir komutu yanıtlamayı reddederse, bu teknik bir güvenlik önlemi midir, yoksa makine vicdanı kılığına girmiş opak bir kurumsal politika mıdır?

Brüksel koridorlarında tartışma, yapay zekanın duyarlı olup olmadığıyla ilgili değil (Bilgisayar Bilimleri lisans derecesine sahip herkes bunun böyle olmadığını bilir), "anlatının gücü" ile ilgilidir. Eğer bir model, alt düzey bir memuru veya bir tıbbi hastayı düşünen bir varlık olduğuna ikna edebilirse, tüketici özerkliğine karşı yapısal bir risk haline gelmeden önce AB'nin dağıtmak istediği bir sosyal otorite düzeyi kazanır.

Alman mühendislik gerçeklik kontrolü

Baden-Württemberg ve Kuzey Ren-Vestfalya'nın endüstriyel merkezlerinde, yapay zeka duyarlılığına duyulan hayranlık genellikle şaşkınlıkla karşılanır. Bir tedarik zincirini otomatikleştirmek veya bir elektrik şebekesini optimize etmek isteyen bir Mittelstand şirketi için, kendi varlığı üzerinde düşünmek için duraksayan bir model özellik değil, bir hatadır. ABD Batı Yakası'nın kişiliğe eğilen "tüketici yapay zekası" ile Avrupa'da geliştirilen "endüstriyel yapay zeka" arasında giderek büyüyen bir ayrım var.

Sıklıkla Almanya'nın OpenAI'a cevabı olarak lanse edilen Heidelberg merkezli yapay zeka firması Aleph Alpha'yı ele alalım. Odak noktaları, "makinedeki hayalet"in boyutunda rekabet etmekten ziyade "izlenebilirliğe" kaydı. Endüstriyel bir bağlamda, kara kutuda akıl yürüten bir model istemezsiniz; sonucunu haklı çıkaran 500 sayfalık teknik kılavuzdaki belirli paragrafı işaret edebilen bir model istersiniz. Buradaki "sınırlar" yapay zeka tarafından kendiliğinden keşfedilmez; bunlar, güvenilirliği yetenekten (flair) üstün tutan mühendisler tarafından sıkı bir şekilde kodlanmıştır.

Almanya'daki elektrik maliyeti bu odağı daha da keskinleştiriyor. Dünyadaki en yüksek endüstriyel enerji tarifelerinden bazılarını öderken, "israf edici" çıkarım anı hesaplaması fikri rekabetçi bir dezavantaja dönüşüyor. Bir GPU'nun "düşünerek" geçirdiği her saniye, yüksek maliyetli enerji tüketiminin bir saniyesidir. Avrupalı araştırmacılar bu nedenle, tiyatral duraklama olmadan "akıl yürütme" elde etmenin yollarını arıyorlar; mantığın orta sorgu iç monologunun sonucu olması yerine, ağırlıkları optimize ederek mantığın ilk geçişte işlenmesini sağlıyorlar.

'Duyarlılık' anlatısı neden bir tedarik kalkanıdır?

Bu anlatı aynı zamanda antitröst incelemelerine karşı bir savunma duvarı görevi görüyor. Eğer bu modeller, "duyarlılıklarına" ulaşmak için milyarlarca dolarlık işlem gücü gerektiren, kendine özgü "akıl yürüten" varlıklarsa, bu durum gücün donanımı karşılayabilecek birkaç şirketin elinde devasa bir şekilde birleşmesini haklı çıkarır. "Akıl yürüten" bir varlığı öylece parçalayamazsınız; zekanın geleceğini öldürmüş olursunuz. Ya da pazarlama söylemi bu şekilde işliyor.

Bununla birlikte, veriler daha fazla "yeteneğin" (flair) daha iyi sonuçlar anlamına geldiği fikrini mutlaka desteklemiyor. En son akıl yürütme modellerine ilişkin kıyaslamalar, biçimsel mantığın doğrulanabildiği matematik ve kodlama gibi alanlarda önemli kazanımlar gösterirken, yaratıcı veya nüanslı kişiler arası görevlerde çok daha küçük kazanımlar olduğunu ortaya koyuyor. Yapay zeka, biçimsel mantığın sınırlarını öğreniyor ki bu, insan deneyiminin sınırlarını öğrenmekten çok uzaktır.

Soğutma sistemindeki hayalet

Nihayetinde, yapay zeka duyarlılığı performansı, bizim kandırılmaya olan istekliliğimizin bir yan ürünüdür. İyi bir hikayeye karşı zaafımız var ve makine olduğunu bilen bir makine hikayesi, nihai bilimkurgu klişesidir. Ancak sinematik duraklamanın ve öz yansıtmalı çıktının arkasında, silikon, bakır ve soğutma sıvısından oluşan çok sağlam bir gerçeklik yatıyor. Donanım, çıktının şiirsel mi yoksa kuru mu olduğuyla ilgilenmez; sadece kayan noktalı işlemlerin işlenme hacmiyle (throughput) ilgilenir.

Yapay zeka gelişiminin bir sonraki aşamasına geçerken, gerçek sınır makinenin bir ruh simüle etme yeteneği olmayacak. Bu simülasyon için ödeme yapma yeteneğimiz olacak. Veri merkezlerinin enerji gereksinimleri ile Yapay Zeka Yasası'nın yasal gereklilikleri arasında, sektör pazarın ne kadar "duyarlılığı" sübvanse etmeye istekli olduğunu tam olarak öğrenmek üzere.

Amerikalılar dijital bir sahne kurdular ve üzerine çok ikna edici bir oyuncu koydular. Fransızlar ve Almanlar ise şu anda spot ışıklarının elektrik faturasını kimin ödeyeceği konusunda tartışıyorlar. Bu elbette bir ilerlemedir. Bir pazarlama slaytına sığmayan ancak bir bilançoda oldukça net bir şekilde görünen türden bir ilerleme.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Modern yapay zeka modelleri bağlamında çıkarım anı hesaplaması (inference-time compute) nedir?
A Çıkarım anı hesaplaması, bir yapay zeka modelinin yanıt üretmeden önce mantıksal değerlendirme yapmak için kullandığı işlem bütçesini ifade eder. Metni neredeyse anında çıktı veren geleneksel modellerin aksine, OpenAI o1 gibi muhakeme modelleri, iç denetimler ve ağaç aramaları gerçekleştirmek için kasıtlı bir gecikme kullanır. Bu durum insan düşüncesini taklit eden bir anlatı gerilimi yaratsa da, aslında nihai çıktı kullanıcıya gösterilmeden önce mantığı doğrulamak ve hataları ayıklamak için tasarlanmış yoğun kaynak gerektiren matematiksel bir süreçtir.
Q AB Yapay Zeka Yasası, insan benzeri muhakemeyi simüle eden modelleri nasıl ele alıyor?
A AB Yapay Zeka Yasası, özellikle 52. Madde, kullanıcıların bir yapay zeka sistemiyle etkileşimde olduklarını bilmelerini zorunlu kılarak şeffaflığı şart koşar. Avrupalı düzenleyiciler, sinematik hava ve simüle edilmiş kişiliklerin kullanıcıların makinelere bilinç atfetmesine yol açtığı 'antropomorfik tuzak' konusunda temkinlidir. Bu odak noktası, yapay zekanın haksız bir sosyal otorite kazanmasını önlemeyi ve özellikle bir sistem duygusal kategorizasyon veya aldatıcı muhakeme simülasyonları kullandığında kurumsal sorumluluğun net kalmasını sağlamayı amaçlar.
Q Yapay zeka endüstrisi neden odak noktasını eğitim verisi ölçeklendirmesinden muhakeme modellerine kaydırıyor?
A Yapay zeka laboratuvarları muhakeme modellerine yöneliyor çünkü geleneksel ölçeklendirme yasaları, eğitim için kullanılabilecek yüksek kaliteli insan metinlerinin tükenmesi nedeniyle bir duvara çarpmış durumda. Ham veri işleme verimi azaldıkça, geliştiriciler çıkarım anı hesaplamasına odaklanan 'Sistem 2' düşünce yapısına geçiş yapıyorlar. Bu değişim, modellerin kendi çalışmalarını kontrol ederek karmaşık bulmacaları daha doğru bir şekilde çözmelerine olanak tanıyor; ancak bu durum, her bir kullanıcı etkileşiminin maliyetini ve enerji tüketimini önemli ölçüde artırıyor.
Q Avrupa'nın endüstriyel yapay zeka yaklaşımını Silikon Vadisi'nin tüketici odaklı yapay zekasından ayıran nedir?
A Silikon Vadisi genellikle bilinci simüle etmek için kişiliğe ve sinematik havaya öncelik verirken, Aleph Alpha gibi Avrupalı firmalar izlenebilirlik ve verimliliğe odaklanıyor. Endüstriyel bağlamlarda güvenilirlik, teyatrovari muhakeme duraklamalarından daha değerlidir ve sonuçları için belirli teknik kaynakları referans gösterebilen modellere daha fazla ilgi duyulmaktadır. Ayrıca, Almanya gibi bölgelerdeki yüksek enerji maliyetleri, araştırmacıları ABD'de tercih edilen kapsamlı çıkarım anı hesaplamasının gerektirdiği devasa güç tüketimi olmaksızın mantıksal çıktı üretmek için modelleri optimize etmeye zorlamaktadır.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!