Militan Gruplar Yapay Zeka Araçlarını Benimsiyor

Yapay Zeka
Militant Groups Embrace AI Tools
Ulusal güvenlik yetkilileri, IŞİD bağlantılı yapıların ve diğer aşırılık yanlısı grupların propaganda, siber saldırılar ve çeviri işlemleri için üretken yapay zeka ile denemeler yaptığını söylüyor; bu, güçlü araçlar ucuzlayıp yaygınlaştıkça büyüyebilecek bir tehdit. Uzmanlar ve yasa yapıcılar, riskleri azaltmak için daha hızlı bilgi paylaşımı, daha iyi tespit ve uluslararası normlar çağrısında bulunuyor.

Aşırılıkçı ağlar yapay zekayı nasıl araç setlerinin bir parçası haline getiriyor

15 Aralık 2025'te Associated Press ve PBS'ten gelen haberler, yapay zekanın yayılmasında yeni bir cepheye dikkat çekti: Eleman alımını artırmak, deepfake görüntü ve ses üretmek, çeviriyi otomatikleştirmek ve siber operasyonları keskinleştirmek için üretken modelleri test eden gevşek yapılı militan ve aşırılıkçı ağlar. Mesajlar açık ve pratik; IŞİD yanlısı bir kullanıcı yakın zamanda destekçilerine İngilizce olarak "yapay zekanın en iyi yanlarından birinin kullanımının ne kadar kolay olduğu" olduğunu söyledi ve onları bu teknolojiyi operasyonlarının bir parçası haline getirmeye çağırdı. Bu çevrimiçi teşvik, güvenlik yetkilileri arasındaki endişeyi körükleyen temel mantığı özetliyor: Ucuz ve güçlü yapay zeka, kötü niyetli etki için çıtayı düşürüyor.

Militanlar bugün yapay zekayı nasıl kullanıyor

Araştırmacılar ve izleme firmaları birkaç yinelenen kullanım alanı bildiriyor. Gruplar; sosyal platformlarda paylaşılabilecek gerçekçi fotoğraf ve videolar oluşturmak için kamuya açık üretken modelleri yeniden amaçlandırdılar; liderlerin deepfake seslerini ürettiler ve mesajları birkaç saat içinde birden fazla dile çevirmek için yapay zekayı kullandılar; ayrıca sosyal medya algoritmalarını beslemek için tasarlanmış hedefli dezenformasyon kampanyaları yürütmeye başladılar. SITE Intelligence Group, İsrail-Hamas savaşıyla ilgili dolaşıma sokulan manipüle edilmiş görseller ve Rusya'daki ölümcül bir konser saldırısının ardından hazırlanan yapay zeka ürünü propagandalar dahil olmak üzere çeşitli örnekleri belgeledi. Diğer durumlarda saldırganlar, dolandırıcılık ve oltalama (phishing) operasyonlarında yetkilileri taklit etmek için sentetik sesler kullandılar.

Bu taktiklerin tamamı yüksek teknoloji mucizeleri değil: İşin büyük bir kısmı hazır araçlara ve insan yaratıcılığına dayanıyor. Ancak sosyal medya yayılımı ile birleştiğinde, bu yöntemler anlatıları değiştirebilir, korku yayabilir ve küçük bir organizasyonun erişiminin çok ötesindeki sempatizanları saflarına katabilir. Eski bir NSA zafiyet araştırmacısıyken sektör yöneticisi olan bir ismin ifadesiyle: "Yapay zeka sayesinde, çok fazla parası olmayan küçük bir grup bile bir etki yaratabiliyor."

Tehdit neden büyüyor

Üç teknik eğilim, sorunu asimetrik hale getiriyor ve hızlandırıyor. Birincisi; metin, görüntü ve ses odaklı üretken modeller yaygın olarak erişilebilir hale geldi ve özel bir eğitim almadan kullanılması kolaylaştı. İkincisi, modeller birbirine bağlanabiliyor: Bir dil modeli bir propaganda taslağı hazırlarken bir görüntü modeli bunu resimleyebiliyor, çeviri araçları ise içeriği yeni kitleler için yerelleştiriyor. Üçüncüsü, metalaşmış bilişim ve bulut hizmetleri, aktörlerin oltalama için hedef listelerini kazımaktan binlerce kişiselleştirilmiş mesajı sentezlemeye kadar tekrarlayan görevleri otomatikleştirmesine olanak tanıyor.

Bu kombinasyon önemli çünkü ölçeği nüfuza dönüştürüyor. Etkileşimi ödüllendirmek için tasarlanmış sosyal platformlar, canlı ve paylaşılabilir içeriği memnuniyetle yayacaktır; ikna edici bir deepfake veya kışkırtıcı bir çeviri paylaşımı hızla yayılarak kutuplaşmayı artırabilir veya geçmiş on yıllarda erişilemez olan yerlerde eleman toplanmasını sağlayabilir.

Çevrimiçi propagandadan savaş alanı araçlarına

Güvenlik analistleri propagandadan öte operasyonel uygulamalardan da endişe duyuyor. İç Güvenlik Bakanlığı'nın (DHS) en son tehdit değerlendirmesi, yapay zekanın devlet dışı aktörlerin ve yalnız saldırganların teknik eksikliklerini gidermesine yardımcı olabileceği riskini açıkça vurguladı; buna siber saldırılarla ilgili yardım ve daha endişe verici olan biyolojik veya kimyasal tehditlerin mühendisliği de dahil. Bu senaryolar daha zor ve daha fazla kaynak gerektirse de, DHS ve diğer kurumlar, modellerin ve veri setlerinin kapasitesi arttıkça ve laboratuvarlar ile araçlara erişim kolaylaştıkça bunların göz ardı edilemeyeceğini belirtiyor.

Bu arada, yapay zekanın uydu görüntülerinin otomatik analizi, drone hedefleme yardımları ve lojistik optimizasyonu gibi geleneksel askeri kullanımları, militan grupların gözlemleyebileceği ve daha düşük hassasiyetle taklit edebileceği modeller ve olanaklar sağlıyor. Ukrayna'daki savaş bu tekniklerin çoğu için bir test alanı oldu: Ordular hedefleri bulmak ve tedarik zincirlerini yönetmek için büyük miktarda görüntü ve videoyu süzmek için yapay zekayı kullanıyor ve bu hızlı inovasyon modeli, düzensiz güçlere ve vekil aktörlere ilham verebilir veya onlara sızabilir.

Somut riskler ve güncel örnekler

  • Büyük ölçekli eleman alımı: Yapay zeka araçları, eleman toplayıcıların sempatizan kitlelere sunabileceği çok dilli ve duygusal olarak uyarlanmış propagandalar üretmeye yardımcı olur.
  • Deepfake ve aldatmaca: Sahte görüntü ve sesler, çatışmaları alevlendirmek, güveni sarsmak ve gasp amacıyla veya gerçek dünyada tepkileri tetiklemek için liderleri taklit etmek üzere halihazırda kullanıldı.
  • Siber operasyonlar: Saldırganlar, karmaşık oltalama mesajları tasarlamak, istismar kodları yazmak ve bir sızma kampanyası içindeki görevleri otomatikleştirmek için yapay zekayı kullanıyor.

Analistler, yüksek profilli saldırılardan sonra sentetik görüntülerin dolaşıma girdiği son olaylara ve bazı grupların destekçileri için içerik üretimi amacıyla yapay zekayı nasıl kullanacaklarına dair düzenlediği belgelenmiş eğitim oturumlarına dikkat çekiyor. Milletvekilleri, hem IŞİD hem de El-Kaide bağlantılı grupların destekçilerine üretken araçları kullanmayı öğretmek için çalıştaylar düzenlediğini ifade etti.

Yetkililer ve uzmanlar ne tavsiye ediyor

Politika müdahalesi birden fazla koldan ilerliyor. Washington'da milletvekilleri, ticari yapay zeka geliştiricileri ve devlet kurumları arasında daha hızlı bilgi paylaşımı yapılması çağrısında bulundu, böylece şirketler kötüye kullanımı işaretleyebilir ve tespit konusunda iş birliği yapabilir. Senato İstihbarat Komitesi'nin kıdemli Demokrat üyesi Senatör Mark Warner, kullanıcı dostu modellerin halka açılmasının, üretken yapay zekanın çok çeşitli kötü niyetli aktörleri çekeceğini netleştirdiğini söyledi. ABD Temsilciler Meclisi, iç güvenlik yetkililerinin aşırılıkçı gruplardan kaynaklanan yapay zeka risklerini her yıl değerlendirmesini gerektiren bir yasayı kabul etti. Her iki partinin üyeleri de kurumlara, kırmızı takım çalışmaları (red-teaming) ve kötüye kullanım bildirme yolları konusunda endüstri ile iş birliğini hızlandırma talimatı verdi.

Teknik önlemler de takip ediliyor. Şirketler ve araştırmacılar, üretilen medya için menşei ve filigran sistemleri, sentetik içeriği algılayan sınıflandırıcılar ve şüpheli otomatik hesapları hız sınırlayan veya engelleyen platform uygulama yaklaşımları üzerinde çalışıyor. Aynı zamanda sivil özgürlük savunucuları, tespit sistemlerinin kötü tasarlanması durumunda aşırı geniş kapsamlı gözetleme ve meşru ifadeyi sansürleme riski konusunda uyarıda bulunuyor.

Sınırlar ve zor seçimler

Tehdidi azaltmak zor ödünleşimler gerektiriyor. Üretken araçların yayılmasını kısıtlamak; tıp, iklim modellemesi ve lojistik alanlarındaki faydalı kullanımları yavaşlatabilirken, serbest erişime izin vermek kötüye kullanım yüzeyini artırıyor. Uluslararası alanda bazı ülkeler ve düzinelerce ABD eyaleti, belirli deepfake türlerini sınırlamak için yasalar çıkardı veya önerdi; federal hükümet de örneğin kamu görevlilerini taklit eden yapay zeka üretimi otomatik aramaları (robocalls) yasaklamak gibi adımlar attı. Ancak otonom silahlar ve devlet dışı aktörlerin yapay zeka kullanımı konusundaki bağlayıcı küresel anlaşmalar siyasi olarak zor olmaya devam ediyor.

Askeri yapay zeka üzerine çalışan uzmanlar, sihirli bir değnek olmadığı konusunda uyarıyor. Center for a New American Security'den Paul Scharre, savaşların inovasyonu hızlandırdığını belirtiyor; yoğun çatışmalar ne kadar uzun sürerse, tehlikeli teknikler o kadar hızlı yayılıyor. Siber güvenlik uzmanları, tespit ve platform tasarımındaki küçük, uygun maliyetli iyileştirmelerin -daha iyi kullanıcı okuryazarlığı ve dayanıklı kurumlarla birleştiğinde- birçok saldırıyı köreltebileceğini vurguluyor. Yine de bir siber güvenlik CEO'sunun gazetecilere söylediği gibi: "Herhangi bir düşman için yapay zeka, bir şeyleri yapmayı gerçekten çok daha kolaylaştırıyor."

Bundan sonra ne beklemeli

Önümüzdeki yıl boyunca ölçülebilir üç eğilim görmeyi bekleyin: Yapay zeka destekli propaganda ve dolandırıcılığın daha sık görülen halka açık örnekleri; milletvekillerinin geliştirici şeffaflığı ve zorunlu kötüye kullanım bildirimi için yaptığı baskılarda artış ve platformlar ile hükümetlere yönelik tespit araçlarının genişleyen pazarı. Kurumlar ayrıca, modelleme ve sentezleme araçları geliştikçe bu konuyu inceleme altında tutarak, yapay zekanın biyolojik riskle kesiştiğini giderek daha fazla vurgulayacak.

Uygulayıcılar ve halk için acil öncelikler pratik nitelikte: Aşırılıkçı kanalların izlenmesini güçlendirmek, geliştiricilerin kullanıcı gizliliğini ihlal etmeden kötüye kullanımı bildirmeleri için sağlam mekanizmalar oluşturmak ve platformların geniş ölçekte uygulayabileceği hızlı, açıklanabilir tespit araçlarına yatırım yapmak. Bu adımlar atılmadığı takdirde, ucuz üretken yapay zeka, bilgiyi ve teknolojiyi silah haline getirmenin yollarını zaten bulmuş olan aktörler için bir güç çarpanı olmaya devam edecektir.

Kaynaklar

  • İç Güvenlik Bakanlığı (Vatan Tehdit Değerlendirmesi)
  • SITE Intelligence Group (aşırılıkçı faaliyet izleme)
  • Center for a New American Security (yapay zeka ve savaş analizi)
  • Ulusal Güvenlik Ajansı (zafiyet araştırması ve kamuya açık yorumlar)
  • Aşırılıkçı tehditler ve yapay zeka üzerine ABD Kongre oturumları
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Aşırılık yanlısı gruplar günümüzde yapay zekayı nasıl kullanıyor?
A Gruplar; propaganda amacıyla gerçekçi görüntüler ve videolar üretmek, liderlerin deepfake seslerini oluşturmak, mesajları saatler içinde birden fazla dile çevirmek ve sosyal medya algoritmalarını beslemek için tasarlanmış hedefli dezenformasyon kampanyaları yürütmek üzere halka açık üretken modelleri yeniden amaçlandırıyor; bazıları dolandırıcılık için sentetik seslerden yararlanıyor, ancak çalışmaların çoğu hazır araçlara ve insan yaratıcılığına dayanıyor.
Q Tehdidin büyümesini hangi faktörler tetikliyor?
A Üç teknik eğilim sorunu asimetrik hale getiriyor ve hızlandırıyor: üretken modeller yaygınlaştı ve kullanımı kolaylaştı; modeller birbirine bağlanabiliyor, yani metin içerikleri tasarlanıp ardından yeni kitleler için görsellenebiliyor veya çevrilebiliyor; metalaşmış bilgi işlem ve bulut hizmetleri, oltalama hedefi belirleme ve toplu mesajlaşma gibi tekrarlayan görevleri otomatikleştiriyor.
Q Yetkililer hangi operasyonel risklerden endişe duyuyor?
A Güvenlik analistleri, yapay zekanın devlet dışı aktörlerin ve bireysel saldırganların; siber saldırılar ve daha da endişe verici olan biyolojik veya kimyasal tehditler tasarlamak da dahil olmak üzere teknik eksikliklerini gidermelerine yardımcı olabileceğinden korkuyor; uydu görüntüsü analizi, drone hedefleme yardımları ve lojistik optimizasyonu gibi geleneksel askeri yapay zeka kullanımları, militan gruplar tarafından gözlemlenebilir ve daha düşük hassasiyetle taklit edilebilir.
Q Hangi politika yanıtları takip ediliyor?
A Yasa koyucular, kötüye kullanımı işaretlemek ve tespitte iş birliği yapmak için ticari yapay zeka geliştiricileri ile devlet kurumları arasında daha hızlı bilgi paylaşımı yapılmasını teşvik ediyor; aşırılık yanlısı gruplardan kaynaklanan yapay zeka risklerini her yıl değerlendirecek yasalar çıkarılıyor; "red-teaming" (kırmızı takım çalışmaları) ve suistimal ihbarı konusunda sektör iş birliği hızlandırılıyor; menşei belirleme ve damgalama, tespit sınıflandırıcıları ve şüpheli otomatik hesapları kısıtlamak veya engellemek için platform uygulamaları geliştiriliyor; bu çabalara sivil özgürlüklerle ilgili endişeler eşlik ediyor.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!