Aşırılıkçı ağlar yapay zekayı nasıl araç setlerinin bir parçası haline getiriyor
15 Aralık 2025'te Associated Press ve PBS'ten gelen haberler, yapay zekanın yayılmasında yeni bir cepheye dikkat çekti: Eleman alımını artırmak, deepfake görüntü ve ses üretmek, çeviriyi otomatikleştirmek ve siber operasyonları keskinleştirmek için üretken modelleri test eden gevşek yapılı militan ve aşırılıkçı ağlar. Mesajlar açık ve pratik; IŞİD yanlısı bir kullanıcı yakın zamanda destekçilerine İngilizce olarak "yapay zekanın en iyi yanlarından birinin kullanımının ne kadar kolay olduğu" olduğunu söyledi ve onları bu teknolojiyi operasyonlarının bir parçası haline getirmeye çağırdı. Bu çevrimiçi teşvik, güvenlik yetkilileri arasındaki endişeyi körükleyen temel mantığı özetliyor: Ucuz ve güçlü yapay zeka, kötü niyetli etki için çıtayı düşürüyor.
Militanlar bugün yapay zekayı nasıl kullanıyor
Araştırmacılar ve izleme firmaları birkaç yinelenen kullanım alanı bildiriyor. Gruplar; sosyal platformlarda paylaşılabilecek gerçekçi fotoğraf ve videolar oluşturmak için kamuya açık üretken modelleri yeniden amaçlandırdılar; liderlerin deepfake seslerini ürettiler ve mesajları birkaç saat içinde birden fazla dile çevirmek için yapay zekayı kullandılar; ayrıca sosyal medya algoritmalarını beslemek için tasarlanmış hedefli dezenformasyon kampanyaları yürütmeye başladılar. SITE Intelligence Group, İsrail-Hamas savaşıyla ilgili dolaşıma sokulan manipüle edilmiş görseller ve Rusya'daki ölümcül bir konser saldırısının ardından hazırlanan yapay zeka ürünü propagandalar dahil olmak üzere çeşitli örnekleri belgeledi. Diğer durumlarda saldırganlar, dolandırıcılık ve oltalama (phishing) operasyonlarında yetkilileri taklit etmek için sentetik sesler kullandılar.
Bu taktiklerin tamamı yüksek teknoloji mucizeleri değil: İşin büyük bir kısmı hazır araçlara ve insan yaratıcılığına dayanıyor. Ancak sosyal medya yayılımı ile birleştiğinde, bu yöntemler anlatıları değiştirebilir, korku yayabilir ve küçük bir organizasyonun erişiminin çok ötesindeki sempatizanları saflarına katabilir. Eski bir NSA zafiyet araştırmacısıyken sektör yöneticisi olan bir ismin ifadesiyle: "Yapay zeka sayesinde, çok fazla parası olmayan küçük bir grup bile bir etki yaratabiliyor."
Tehdit neden büyüyor
Üç teknik eğilim, sorunu asimetrik hale getiriyor ve hızlandırıyor. Birincisi; metin, görüntü ve ses odaklı üretken modeller yaygın olarak erişilebilir hale geldi ve özel bir eğitim almadan kullanılması kolaylaştı. İkincisi, modeller birbirine bağlanabiliyor: Bir dil modeli bir propaganda taslağı hazırlarken bir görüntü modeli bunu resimleyebiliyor, çeviri araçları ise içeriği yeni kitleler için yerelleştiriyor. Üçüncüsü, metalaşmış bilişim ve bulut hizmetleri, aktörlerin oltalama için hedef listelerini kazımaktan binlerce kişiselleştirilmiş mesajı sentezlemeye kadar tekrarlayan görevleri otomatikleştirmesine olanak tanıyor.
Bu kombinasyon önemli çünkü ölçeği nüfuza dönüştürüyor. Etkileşimi ödüllendirmek için tasarlanmış sosyal platformlar, canlı ve paylaşılabilir içeriği memnuniyetle yayacaktır; ikna edici bir deepfake veya kışkırtıcı bir çeviri paylaşımı hızla yayılarak kutuplaşmayı artırabilir veya geçmiş on yıllarda erişilemez olan yerlerde eleman toplanmasını sağlayabilir.
Çevrimiçi propagandadan savaş alanı araçlarına
Güvenlik analistleri propagandadan öte operasyonel uygulamalardan da endişe duyuyor. İç Güvenlik Bakanlığı'nın (DHS) en son tehdit değerlendirmesi, yapay zekanın devlet dışı aktörlerin ve yalnız saldırganların teknik eksikliklerini gidermesine yardımcı olabileceği riskini açıkça vurguladı; buna siber saldırılarla ilgili yardım ve daha endişe verici olan biyolojik veya kimyasal tehditlerin mühendisliği de dahil. Bu senaryolar daha zor ve daha fazla kaynak gerektirse de, DHS ve diğer kurumlar, modellerin ve veri setlerinin kapasitesi arttıkça ve laboratuvarlar ile araçlara erişim kolaylaştıkça bunların göz ardı edilemeyeceğini belirtiyor.
Bu arada, yapay zekanın uydu görüntülerinin otomatik analizi, drone hedefleme yardımları ve lojistik optimizasyonu gibi geleneksel askeri kullanımları, militan grupların gözlemleyebileceği ve daha düşük hassasiyetle taklit edebileceği modeller ve olanaklar sağlıyor. Ukrayna'daki savaş bu tekniklerin çoğu için bir test alanı oldu: Ordular hedefleri bulmak ve tedarik zincirlerini yönetmek için büyük miktarda görüntü ve videoyu süzmek için yapay zekayı kullanıyor ve bu hızlı inovasyon modeli, düzensiz güçlere ve vekil aktörlere ilham verebilir veya onlara sızabilir.
Somut riskler ve güncel örnekler
- Büyük ölçekli eleman alımı: Yapay zeka araçları, eleman toplayıcıların sempatizan kitlelere sunabileceği çok dilli ve duygusal olarak uyarlanmış propagandalar üretmeye yardımcı olur.
- Deepfake ve aldatmaca: Sahte görüntü ve sesler, çatışmaları alevlendirmek, güveni sarsmak ve gasp amacıyla veya gerçek dünyada tepkileri tetiklemek için liderleri taklit etmek üzere halihazırda kullanıldı.
- Siber operasyonlar: Saldırganlar, karmaşık oltalama mesajları tasarlamak, istismar kodları yazmak ve bir sızma kampanyası içindeki görevleri otomatikleştirmek için yapay zekayı kullanıyor.
Analistler, yüksek profilli saldırılardan sonra sentetik görüntülerin dolaşıma girdiği son olaylara ve bazı grupların destekçileri için içerik üretimi amacıyla yapay zekayı nasıl kullanacaklarına dair düzenlediği belgelenmiş eğitim oturumlarına dikkat çekiyor. Milletvekilleri, hem IŞİD hem de El-Kaide bağlantılı grupların destekçilerine üretken araçları kullanmayı öğretmek için çalıştaylar düzenlediğini ifade etti.
Yetkililer ve uzmanlar ne tavsiye ediyor
Politika müdahalesi birden fazla koldan ilerliyor. Washington'da milletvekilleri, ticari yapay zeka geliştiricileri ve devlet kurumları arasında daha hızlı bilgi paylaşımı yapılması çağrısında bulundu, böylece şirketler kötüye kullanımı işaretleyebilir ve tespit konusunda iş birliği yapabilir. Senato İstihbarat Komitesi'nin kıdemli Demokrat üyesi Senatör Mark Warner, kullanıcı dostu modellerin halka açılmasının, üretken yapay zekanın çok çeşitli kötü niyetli aktörleri çekeceğini netleştirdiğini söyledi. ABD Temsilciler Meclisi, iç güvenlik yetkililerinin aşırılıkçı gruplardan kaynaklanan yapay zeka risklerini her yıl değerlendirmesini gerektiren bir yasayı kabul etti. Her iki partinin üyeleri de kurumlara, kırmızı takım çalışmaları (red-teaming) ve kötüye kullanım bildirme yolları konusunda endüstri ile iş birliğini hızlandırma talimatı verdi.
Teknik önlemler de takip ediliyor. Şirketler ve araştırmacılar, üretilen medya için menşei ve filigran sistemleri, sentetik içeriği algılayan sınıflandırıcılar ve şüpheli otomatik hesapları hız sınırlayan veya engelleyen platform uygulama yaklaşımları üzerinde çalışıyor. Aynı zamanda sivil özgürlük savunucuları, tespit sistemlerinin kötü tasarlanması durumunda aşırı geniş kapsamlı gözetleme ve meşru ifadeyi sansürleme riski konusunda uyarıda bulunuyor.
Sınırlar ve zor seçimler
Tehdidi azaltmak zor ödünleşimler gerektiriyor. Üretken araçların yayılmasını kısıtlamak; tıp, iklim modellemesi ve lojistik alanlarındaki faydalı kullanımları yavaşlatabilirken, serbest erişime izin vermek kötüye kullanım yüzeyini artırıyor. Uluslararası alanda bazı ülkeler ve düzinelerce ABD eyaleti, belirli deepfake türlerini sınırlamak için yasalar çıkardı veya önerdi; federal hükümet de örneğin kamu görevlilerini taklit eden yapay zeka üretimi otomatik aramaları (robocalls) yasaklamak gibi adımlar attı. Ancak otonom silahlar ve devlet dışı aktörlerin yapay zeka kullanımı konusundaki bağlayıcı küresel anlaşmalar siyasi olarak zor olmaya devam ediyor.
Askeri yapay zeka üzerine çalışan uzmanlar, sihirli bir değnek olmadığı konusunda uyarıyor. Center for a New American Security'den Paul Scharre, savaşların inovasyonu hızlandırdığını belirtiyor; yoğun çatışmalar ne kadar uzun sürerse, tehlikeli teknikler o kadar hızlı yayılıyor. Siber güvenlik uzmanları, tespit ve platform tasarımındaki küçük, uygun maliyetli iyileştirmelerin -daha iyi kullanıcı okuryazarlığı ve dayanıklı kurumlarla birleştiğinde- birçok saldırıyı köreltebileceğini vurguluyor. Yine de bir siber güvenlik CEO'sunun gazetecilere söylediği gibi: "Herhangi bir düşman için yapay zeka, bir şeyleri yapmayı gerçekten çok daha kolaylaştırıyor."
Bundan sonra ne beklemeli
Önümüzdeki yıl boyunca ölçülebilir üç eğilim görmeyi bekleyin: Yapay zeka destekli propaganda ve dolandırıcılığın daha sık görülen halka açık örnekleri; milletvekillerinin geliştirici şeffaflığı ve zorunlu kötüye kullanım bildirimi için yaptığı baskılarda artış ve platformlar ile hükümetlere yönelik tespit araçlarının genişleyen pazarı. Kurumlar ayrıca, modelleme ve sentezleme araçları geliştikçe bu konuyu inceleme altında tutarak, yapay zekanın biyolojik riskle kesiştiğini giderek daha fazla vurgulayacak.
Uygulayıcılar ve halk için acil öncelikler pratik nitelikte: Aşırılıkçı kanalların izlenmesini güçlendirmek, geliştiricilerin kullanıcı gizliliğini ihlal etmeden kötüye kullanımı bildirmeleri için sağlam mekanizmalar oluşturmak ve platformların geniş ölçekte uygulayabileceği hızlı, açıklanabilir tespit araçlarına yatırım yapmak. Bu adımlar atılmadığı takdirde, ucuz üretken yapay zeka, bilgiyi ve teknolojiyi silah haline getirmenin yollarını zaten bulmuş olan aktörler için bir güç çarpanı olmaya devam edecektir.
Kaynaklar
- İç Güvenlik Bakanlığı (Vatan Tehdit Değerlendirmesi)
- SITE Intelligence Group (aşırılıkçı faaliyet izleme)
- Center for a New American Security (yapay zeka ve savaş analizi)
- Ulusal Güvenlik Ajansı (zafiyet araştırması ve kamuya açık yorumlar)
- Aşırılıkçı tehditler ve yapay zeka üzerine ABD Kongre oturumları
Comments
No comments yet. Be the first!