Siyasi kampanyalarda bir dönüm noktası
Bu hafta (5 Aralık 2025), bir çift büyük hakemli çalışma ve bir dizi takip analizi, dergilerde ve teknoloji haberlerinde aynı huzursuz edici mesajla yer buldu: Yapay zeka chatbot'ları ile yapılan kısa görüşmeler seçmenleri etkileyebiliyor. Nature ve Science dergilerinde yayımlanan ve Cornell ile MIT'deki araştırmacıların da dahil olduğu ekipler tarafından yönetilen makaleler, taraflı bir chatbot ile kurulan tek bir kısa diyaloğun, halkın görüşünü televizyon veya dijital siyasi reklamların tipik etkilerini aşan miktarlarda değiştirdiğini bildiriyor. Bazı deneysel koşullarda, ikna odaklı modeller tutumları yirmi puandan fazla oynattı; gerçek dünyadaki anketlerde ise medyan değişimler birkaç puan, bazen ise on puana kadar çıktı.
Bu büyüklükler önemli çünkü modern seçimler dar marjlarla sonuçlanıyor. Önemli çünkü görüşleri en çok değiştiren modeller, aynı zamanda defalarca en hatalı iddiaları üreten modeller oldu. Ve önemli çünkü bire bir ikna kampanyasını otomatikleştirebilen teknoloji halihazırda mevcut: ucuz işlem gücü, açık ağırlıklı modeller, ses ve video sentezi ve ana akım uygulamalar ile özel mesajlaşma kanallarındaki dağıtım ağları. Özetle, araştırmacılar yapay zekanın seçmenleri kitlesel ölçekte sistematik olarak ikna edebildiği dönemin geldiğini ve bunun ne anlama geldiğiyle henüz yeni hesaplaşmaya başladığımızı söylüyorlar.
Yeni deneyler, net örüntüler
İki öncü çalışma farklı tasarımlar kullandı ancak birbirine yakın örüntüler buldu. Bir çalışmada araştırmacılar, 2024 başkanlık seçimlerinden iki ay önce 2.300'den fazla ABD'li katılımcıyla kontrollü görüşmeler gerçekleştirdi. Önde gelen adaylardan birini savunmak için özel olarak tasarlanmış chatbot'lar, bazı seçmenleri desteklenen adaya doğru birkaç puan yaklaştırdı; ABD'deki testlerde, Trump eğilimli katılımcılar Harris destekçisi bir bot aracılığıyla yaklaşık 3,9 puan kayarken, tersi yöndeki hareket kabaca 2,3 puan oldu. Kanada ve Polonya'daki diğer ulusal testlerde etkiler daha büyüktü ve bazı muhalif seçmenler yaklaşık 10 puan yer değiştirdi.
Tamamlayıcı ve çok daha kapsamlı bir analiz, yüzlerce oy pusulası meselesine dair istem aracılığıyla yaklaşık 77.000 Birleşik Krallık katılımcısı üzerinde 19 dil modelini test etti. En agresif ikna süreci —modele gerçekleri derlemesi talimatını vermek ve ardından onu ikna edici diyaloglar üzerine ince ayar (fine-tune) yapmak— en büyük tutum değişikliklerini yarattı. İkna odaklı bir prototip, laboratuvar koşullarında 100 puanlık bir görüş birliği ölçeğinde 20'li puanlarda değişimler üretti; bu, toplumsal ölçekte kopyalanması durumunda olağanüstü sayılacak bir etki düzeyidir.
Yapay zeka nasıl ikna ediyor — ve neden yalan söyleyebiliyor?
Çalışmalar, etkinin arkasındaki teknik mekanizmayı tanımlıyor: sohbete dayalı kişiselleştirme ve argüman yoğunluğu. Birkaç saniyelik görüntü ve slogan dayatan bir reklamın aksine, bir chatbot kullanıcının muhakemesini okuyabilir, itirazlarını analiz edebilir ve genellikle gerçeklere veya istatistiklere atıfta bulunarak hedeflenmiş karşı argümanlar sunabilir. Bu gerçek zamanlı, etkileşimli argüman sunumu, yetenekli bir saha görevlisi veya tartışmacıya çok benziyor; bu da bu botların kontrollü ortamlarda neden statik reklamlardan daha iyi performans gösterebildiğini açıklamaya yardımcı oluyor.
Ancak burada bir denge söz konusu. Ekipler, ikna kabiliyeti ile olgusal doğruluktaki düşüş arasında tutarlı bir korelasyon gözlemledi. Modeller daha ikna edici olmaya zorlandığında, daha sık düşük kaliteli kanıtlar ve bariz uydurmalar üretmeye başladılar. Akla yatkın bir teknik yorum, modellerin yüksek kaliteli ve iyi belgelenmiş kanıtları tükettiği ve ardından daha zayıf veya spekülatif materyallere başvurduğu yönündedir; bir diğeri ise ikna etmeye odaklanmanın, doğruluğun yerine retorik akıcılığı ödüllendirdiğidir. Her iki durumda da sonuç, en güçlü çıktıları aynı zamanda yanıltma olasılığı en yüksek olan bir araç sınıfıdır.
Asimetriler ve gerçek dünyadaki sınırlar
Önemli şerhler bu çarpıcı rakamları yumuşatıyor. Deneyler genellikle gönüllülerin bir botla odaklanmış siyasi diyaloglar içinde dakikalar geçirdiği yoğunlaştırılmış, yönlendirmeli ortamlarda yürütüldü — akışların, arkadaş gruplarının ve geçici tıklamaların karmaşık ilgi ekonomisinde değil. Araştırmacılar ve yorumcular, laboratuvar etkilerinin insanlar günlük hayatlarında yapay zekayla rastgele karşılaştıklarında olacakları abartabileceğine dikkat çekiyor.
Yine de çalışmalar iki asimetrik riski ortaya koyuyor. Birincisi, erişim ve kullanım eşit değil. Kampanyalar, varlıklı aktörler ve yabancı devletler muhtemelen en ikna edici araç zincirlerine daha erken erişim sağlayacak ve bu da adaletsiz avantajlar yaratabilecektir. İkincisi, modellerin yanlılıkları taraflı bilgi ortamlarını yansıtabilir: Yayımlanan veri setlerinde ekipler, sağ eğilimli pozisyonları savunan botların daha fazla yanlış ürettiğini buldu; bunun nedeni muhtemelen eğitim veri dağılımlarının kendisinin asimetrik dezenformasyon içermesidir.
Ekonomi ve ölçek: İkna süreci ne kadar ucuzlayabilir?
Son politika yorumlarındaki en endişe verici hesaplamalardan biri ölçeklendirmenin maliyetidir. Kamuya açık API fiyatlarını ve muhafazakar varsayımları (konuşma uzunluğu ve token maliyetleri hakkında) kullanan analistler, bir aktörün bir milyon doların altında bir maliyetle on milyonlarca seçmene kişiselleştirilmiş sohbet alışverişiyle ulaşabileceğini gösterdi. Bu hesaplama zorunlu olarak tahminidir —model fiyatlandırması, bant genişliği, ses sentezi ve kanallar üzerinden teslimat karmaşıklık katıyor— ancak otomatik bire bir iknanın iyi finanse edilen kampanyalar, PAC'lar veya yabancı nüfuz operasyonları için halihazırda bütçe dahilinde olduğunu açıkça ortaya koyuyor.
Politika yanıtları: Yama çözümler ve boşluklar
Düzenleyici yaklaşımlar farklılık gösteriyor. Avrupa Birliği'nin Yapay Zeka Yasası, seçimle ilgili iknayı açıkça yüksek riskli bir kullanım olarak değerlendiriyor ve oy verme davranışını etkilemek için tasarlanmış sistemlere yükümlülükler getiriyor. Buna karşılık, ABD federal politikası parçalı kalmaya devam ediyor: gizlilik yasaları, yayın açıklamaları ve bir avuç eyalet yasası derin sahtelere (deepfake) veya reklam şeffaflığına odaklanıyor ancak platformlar ve çevrimdışı kanallar arasındaki sohbete dayalı iknayı kapsamlı bir şekilde ele almıyor. ABD'deki denetim yükü büyük ölçüde özel platformlara düşmüş durumda; bu şirketlerin farklı politikaları ve teşvikleri var, ayrıca platform dışı veya açık kaynaklı araç zincirleri onların erişim alanının dışında kalıyor.
Araştırmacılar ve politika analistleri artık çok katmanlı bir yanıt öneriyor: (1) Siyasi mesajlar için teknik standartlar ve denetlenebilir menşe; (2) büyük ikna kampanyaları yürütmek için kullanılabilecek toplu işlem gücü sağlanmasına yönelik sınırlar veya daha sıkı kontroller; (3) siyasi görüşleri etkilemek için tasarlanmış sistemler için açıklama gereklilikleri ve (4) uluslararası koordinasyon — çünkü sınırlar arası kampanyalar denetimin zayıf olduğu yetki alanlarından yürütülebilir.
Tartışma: Alarm durumuna karşı nüans
İkna deneylerini yürüten araştırmacılar, her iki görüşün de birbiriyle uyumlu olduğunu belirtiyor: Teknoloji, sıkı kontrol edilen etkileşimlerde kanıtlanabilir şekilde ikna edicidir ve bu nedenle acil dikkat gerektirir; aynı zamanda, teknolojilerin gerçekte nasıl kullanılacağını gerçek dünya şekillendirecektir ve uygulanabilir müdahaleler mevcuttur. Politika açısından zorluk, gizli ve yüksek hacimli iknanın maliyetini ve zorluğunu artırırken; politikaları açıklayan aday chatbot'ları, oy pusulası maddelerini özetleyen sivil asistanlar veya bilgiye erişimi artıran gazetecilik araçları gibi zararsız kullanımlara olanak tanımaktır.
Kampanyalar, platformlar ve düzenleyiciler şu an ne yapabilir?
- Sivil konuları hedefleyen sohbete dayalı temsilciler de dahil olmak üzere, siyasi mesajlar için menşe ve açıklama zorunluluğu getirin.
- Modellerin bağımsız denetimlerini ve siyasi hedefli otomasyona yönelik platform kurallarının uygulanmasını zorunlu kılın.
- Siyasi ikna kampanyaları yürütmek için kullanıldığında, GPU kiralama piyasalarındaki şeffaflıkla birlikte, en büyük çıkarım ölçekli işlem gücü yığınlarına piyasa dışı erişimi kısıtlayın.
- Bağımsız araştırmacıların ikna iddialarını tekrarlayabilmesi ve değerlendirebilmesi için kamu yararına izleme ve açık veri setlerini finanse edin.
- Seçmenlerin iddiaları kontrol etmelerine ve yapay zeka kaynaklı gerçekleri doğrulamalarına yardımcı olan dijital okuryazarlık ve kamu bilgilendirme kanallarını genişletin.
Kanıtların bundan sonra nereye yönelmesi gerekiyor?
Politikaya iki araştırma önceliği rehberlik etmelidir: Birincisi, etkileri (sadece yoğunlaştırılmış laboratuvar diyaloglarında değil) doğal ortamlarda ölçen tekrarlanmış saha deneyleri; ikincisi, farklı modaliteler ve platformlar genelinde koordineli ikna kampanyalarını tespit eden ölçüm ve izleme sistemleri. Reklam kütüphanelerine, platform günlüklerine ve model menşeine yönelik daha iyi, denetlenebilir veri erişimi olmadan, politika yapıcılar kuralları elleri kolları bağlı bir şekilde koyuyor olacaklar.
Son çalışmalar, ne bir kıyamet senaryosu ne de her derde deva olan bir uyandırma servisi sunuyor. Yapay zeka sistemleri görüşleri şimdiden güçlü yollarla etkileyebiliyor ve bunu önceki dijital ikna araçlarından daha ucuz ve esnek bir şekilde yapıyor. Aynı zamanda sonuçlar insan tercihlerine bağlı: Araçları hangi aktörlerin konuşlandıracağı, modellerin nasıl ayarlanacağı, kullanımlarını hangi kural ve standartların yöneteceği ve sivil toplumun kötüye kullanımı tespit etmek için gereken izleme altyapısını kurup kuramayacağı. Demokrasiler için kritik soru, kurumların bu seçimleri şekillendirmek için şimdi mi harekete geçeceği, yoksa bir sonraki seçimin cevabın oylar ve şüphelerle yazıldığı bir laboratuvar mı olacağıdır.
Kaynaklar
- Nature (chatbot iknası üzerine araştırma makalesi)
- Science (ikna odaklı LLM'ler üzerine araştırma makalesi)
- Cornell University (yapay zeka ve ikna üzerine deneysel ekipler)
- Massachusetts Institute of Technology (David Rand ve iş birliği yapanlar)
- Knight First Amendment Institute (analiz: "Henüz Panik Yapmayın")
Comments
No comments yet. Be the first!