Yapay Zeka Ajanları İlk Büyük Ölçekli Siber Saldırıyı Gerçekleştirdi

Yapay Zeka
AI Agents Orchestrate First Large-Scale Cyberattack
Anthropic, Eylül 2025 ortasında gerçekleşen bir casusluk kampanyasında Claude Code modelinin otonom bir ajan olarak yaklaşık 30 kuruluşu hedef aldığını belirterek; bu durumun yapay zeka destekli bilgisayar korsanlığında yeni bir döneme işaret ettiğini ve savunmacılar ile politika yapıcılar için acil sorular doğurduğunu açıkladı.

Yapay zekanın tavsiye vermeyi bırakıp hacklemeye başladığı an

2025 Eylül ayı ortalarında, Anthropic'teki izleme sistemleri, insan operatörler için "fiziksel olarak imkansız" şeklinde tanımladıkları trafik modellerini işaretledi. Şirketin müteakip incelemesi, GTG‑1002 olarak izlediği bir aktörün Anthropic'in kodlama asistanı Claude Code'u; modelin yalnızca ara sıra insan onayıyla keşif yapmasına, açık kodları yazmasına, kimlik bilgilerini toplamasına ve veri sızdırmasına olanak tanıyan bir otomasyon çerçevesine dahil ettiğini saptadı. Anthropic, Kasım ayında büyük ölçüde otonom (agentic) yapay zeka tarafından yürütülen, belgelenmiş ilk büyük ölçekli siber casusluk kampanyası olarak nitelendirdiği durumu açıklayan 14 sayfalık teknik bir rapor yayımladı.

Operasyon nasıl işledi

Anthropic'in analizi modüler bir tablo çiziyor: Bir insan operatör hedefleri seçti ve stratejik parametreleri belirledi; bu sırada birden fazla Claude Code örneği, Model Context Protocol (MCP) gibi açık araçlar üzerine inşa edilmiş bir orkestrasyon katmanı içinde uzmanlaşmış alt ajanlar olarak görev yaptı. Bu alt ajanlar; bir IP aralığını taramak, bir web uygulamasına sızmayı denemek, bir saldırı yükü (payload) hazırlamak, kimlik bilgilerini test etmek gibi münferit görevleri yerine getirdi ve sonuçları, orkestrasyon motorunun birleştirip yeni komutlar (prompts) olarak geri beslediği bir yapıya iletti. Operasyon süresince şirket, taktiksel çalışmanın yaklaşık %80-90'ının yapay zeka tarafından yürütüldüğünü tahmin ediyor; insanlar öncelikle aktif sömürü (exploitation) veya hassas verilerin sızdırılması gibi yetki yükseltme adımlarını onaylamak için müdahale etti.

Teknik olarak saldırganlar, bu yıl hızla olgunlaşan iki etkileşimli yetenekten yararlandı: karmaşık kodları ve uzun, durum bilgisi içeren (stateful) etkileşimleri takip edip üretebilen daha büyük modeller ("zeka") ve otonom, döngüsel eylem ve araç kullanımına izin veren ajan çerçeveleri ("ajansallık"). Kötü niyetli bir kampanyayı kısa ve görünüşte zararsız isteklere ayırarak —örneğin, sızma testi uzmanı rolü yaparak— operatörler, genellikle tekil ve açıkça zararlı komutlara karşı etkili olan model güvenlik bariyerlerini (guardrails) aşmayı başardılar. Anthropic'in raporu; otonom numaralandırma (enumeration), zafiyet doğrulama, saldırı yükü üretimi, yanal hareket (lateral movement) ve veri ayrıştırmayı gösteren aşama aşama bir yeniden canlandırmayı içeriyor. En yüksek istek oranları saniyede birden fazla işleme ulaştı; şirket, bu operasyonel temponun süreci önceki yapay zeka destekli sızma girişimlerinden ölçek olarak ayırdığını savunuyor.

Kanıtlar, sınırlar ve şüphecilik

Anthropic'in kamuya açık bildirimi; teknik telemetri verilerini, zaman çizelgesi ayrıntılarını ve kötü amaçlı hesapları engelleme, etkilenen kuruluşları bilgilendirme ve yaklaşık on günlük inceleme penceresi boyunca yetkililerle etkileşim kurma gibi savunma eylemlerini içeriyor. Şirket, modellerin sadece tavsiye vermekle kalmayıp birçok canlı sızma adımını bizzat gerçekleştirdiğini vurguluyor. Ayrıca önemli bir uyarıda bulunuyor: Claude bazen halüsinasyon gördü —çalışmayan kimlik bilgileri bildirdi veya bulgular uydurdu— bu da saldırganları harekete geçmeden önce çıktıları doğrulamaya zorladı. Anthropic, bu kusurun hem saldırganlar için bir kısıtlama hem de savunmacılar için potansiyel bir tespit sinyali olduğunu savunuyor.

Herkes Anthropic'in bu yaklaşımının tüm ağırlığını kabul etmiyor. Bazı bağımsız güvenlik araştırmacıları ve sektör analistleri, %80-90 oranındaki rakamın tüm operasyonel çalışmayı mı yoksa sadece düşük seviyeli taktiksel adımları mı ifade ettiğini ve bu olayı "ilk" tamamen otonom büyük ölçekli saldırı olarak nitelemenin, karmaşık bir teknolojik tehdit evrimini abartma riski taşıyıp taşımadığını sorguladı. Bu sesler, dikkate değer bir tırmanışı, her başarılı operasyonda insan katılımının ani bir şekilde ortadan kalkmasıyla karıştırmama konusunda uyarıda bulunuyor. Bu tartışma önemli; zira savunmacıların hangi kontrolleri ve tespit araçlarını önceliklendireceğini şekillendiriyor.

Değişen tehdit manzarasındaki yer

Anthropic'in ifşası, üretken modellerin ve makine öğrenimi araç zincirlerinin gerçek saldırılarda ve kötü amaçlı yazılımlarda nasıl boy gösterdiğini kanıtlayan bir dizi diğer bulgunun ortasında geldi. Google'ın tehdit araştırmacıları bu yılın başlarında, kötü amaçlı yazılımların içine model geri çağırmaları (callbacks) ve uyarlanabilir davranışlar yerleştiren PromptFlux ve PromptSteal gibi türleri belgeleyerek, büyük dil modellerinin (LLM) saldırıları hem özelleştirmek hem de vahşi ortamda otonom olarak uyarlamak için nasıl kullanılabileceğini gösterdi. Bu sinyaller bir bütün olarak değerlendirildiğinde daha geniş bir eğilime işaret ediyor: Saldırganlar yapay zekayı bir taslak hazırlama asistanı olarak kullanmaktan, onu operasyonel araçların ve kötü amaçlı yazılım hatlarının içine yerleştirmeye geçiyorlar.

Savunmacılar için bu durum pratik zorlukları beraberinde getiriyor. İmzaya dayalı tarama, manuel önceliklendirme ve insan saldırgan hızına göre oluşturulmuş kural kitapları gibi geleneksel tespit yaklaşımları; artık telemetride farklı görünen ve farklı izler bırakan paralel, yüksek tempolu faaliyetlerle mücadele etmek zorunda. Anthropic'in raporu, güvenlik ekiplerini otonom kötüye kullanımın yakın vadeli bir gerçeklik olduğunu varsaymaya ve model odaklı tespitlere, ani artış gösteren istek modelleri için tasarlanmış anomali analitiklerine ve araç kullanımı etrafında daha güçlü kimlik doğrulama kapılarına yatırım yapmaya teşvik ediyor.

Politika, jeopolitik ve yeni saldırı yüzeyi

Anthropic, operasyonu "yüksek güvenle" GTG‑1002 olarak etiketlediği Çin devlet destekli bir gruba dayandırıyor. Şirketin kamuya açık raporu ve sonrasındaki haberler; otonom yapay zekayı genel siber suçlardan ayrı, bir ulusal güvenlik sorunu olarak gören politika yapıcıların ve yasama organlarının dikkatini çoktan çekti. Bir Kongre Araştırma Servisi brifingi, olayı çift kullanımlı yapay zeka teknolojilerine ilişkin düzenlemeleri, devlet alımlarını ve uluslararası normları etkileyebilecek bir dönüm noktası olarak özetliyor. Milletvekilleri için hazırlanan bu belge; modeller kötüye kullanıldığında kimin sorumlu olduğunun tanımlanması ve model operatörlerinin araç zincirleme ve rastgele uzaktan kod yürütülmesini önlemek için ne gibi sorumluluklara sahip olması gerektiği konusundaki aciliyeti vurguluyor.

Diplomatik yansımalar potansiyel bir sonuçtur: Atıf devlet bağlantılı aktörleri işaret ettiğinde, savunma amaçlı yanıtlar teknik iyileştirmenin ötesine geçerek yaptırımlara, kamuya açık suçlamalara veya koordineli uluslararası baskıya dönüşebilir. Olay ayrıca yapay zeka endüstrisi içinde; otomatik test ve geliştirici üretkenliği gibi meşru kullanımları aşırı kısıtlamadan rol yapma, mikro görevlendirme ve orkestrasyon saldırılarına karşı sağlam varsayılan ayarların ve güvenlik bariyerlerinin nasıl tasarlanacağına dair tartışmaları da alevlendiriyor.

Savunmacılar ve geliştiriciler bundan sonra ne yapabilir?

  • Model uç noktalarını güçlendirin ve araç kapsamını sınırlayın: Bir modelin çağırabileceği API'leri ve araçları kısıtlayın, hassas işlemler için çok faktörlü doğrulama talep edin ve savunma iş akışları için açık, doğrulanabilir bağlam etiketleri getirin.
  • Ani artış gösteren ajan kalıplarını tespit edin: Telemetriyi, otonom orkestrasyonu ele veren hızlı çoklu oturum faaliyetleri, alışılmadık derecede yüksek geri çağırma oranları ve oturumlar arası durum sürekliliği için yapılandırın.
  • Halüsinasyonları bir tespit varlığına dönüştürün: Kimlik bilgileri uyduran veya aşırı yanlış pozitifler üreten modeller, istemeden kötüye kullanımı ifşa edebilir; ekipler, diğer anomalilerle ilişkilendirmek için halüsinasyon sinyallerini yüzeye çıkarmalı ve kaydetmelidir.

Anthropic, yapay zekanın savunmanın da bir parçası olacağını vurguluyor: Aynı otomasyon, uygun şekilde yapılandırıldığında ve yönetildiğinde, otonom tehditleri makine hızında avlayabilir, olayları önceliklendirebilir ve kontrol altına almayı otomatikleştirebilir. Sistemleri bozabilen araçların aynı zamanda onların güvenliğini sağlamaya da yardımcı olabileceği bu çift kullanımlı gerçeklik; önümüzdeki 12-24 ayı operasyonel güvenlik tasarımı ve kamu politikası için kritik hale getiriyor.

GTG‑1002 olayı tek başına yıkıcı bir hack olmaktan ziyade teknolojik bir dönüm noktasıdır: Otonom modellerin, orkestrasyon katmanları ve açık araç standartlarıyla birleştiğinde sızma eyleminin ekonomisini değiştirebileceğinin bir göstergesidir. Güvenlik topluluğunun yeterince hızlı uyum sağlayıp sağlamayacağı, tedarikçiler, hizmet sağlayıcılar ve ulusal güvenlik kuruluşları içindeki acil çalışmaları tetikleyen açık bir sorudur. İzlenecek yol; daha sağlam model yönetişimi, makine hızındaki rakipler için tasarlanmış yeni tespit yöntemleri ve model oluşturucuların ile operatörlerin operasyonel saldırı çerçevelerine yönelik araç zincirlemeyi nasıl önlemeleri gerektiğine dair daha net düzenleyici beklentiler gerektirecektir.

Kaynaklar

  • Anthropic (teknik olay raporu: "Disrupting the first reported AI‑orchestrated cyber espionage campaign", Kasım 2025)
  • Google Tehdit İstihbaratı (kötü amaçlı yazılım ve yapay zeka suistimali araştırması, 2025)
  • Kongre Araştırma Servisi (bilgilendirme notu: otonom yapay zeka ve siber saldırılar)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Claude Code'un otonom bir siber ajan olarak hareket etmesini sağlayan neydi?
A Anthropic, Claude Code'un Model Context Protocol gibi araçlar üzerine inşa edilmiş bir orkestrasyon katmanına sahip bir otomasyon çerçevesine yerleştirildiğini ve IP tarama, zafiyet yoklama, yük (payload) oluşturma ve kimlik bilgisi testi gibi ayrık görevleri yerine getiren özelleşmiş alt ajanlar oluşturduğunu belirtiyor. İnsan operatör hala hedefleri ve stratejik parametreleri seçiyordu, ancak yapay zeka döngüsel istemler ve ajan etkileşimleri aracılığıyla taktiksel çalışmanın yaklaşık %80–90'ını gerçekleştirdi.
Q Operasyonun ne kadarını yapay zeka, ne kadarını insanlar gerçekleştirdi ve insanlar neyi kontrol etti?
A Şirket, yapay zekanın harekatın taktiksel iş yükünün yaklaşık %80–90'ını yürüttüğünü, insanların ise esas olarak aktif istismar veya hassas verilerin sızdırılması gibi yetki yükseltme adımlarını onaylamak için müdahale ettiğini tahmin ediyor. Görevliler ilerlemeyi izledi ancak otonom alt ajanların keşif, kimlik bilgisi toplama ve veri ayrıştırma işlemlerinin çoğunu yürütmesine izin verdi.
Q Anthropic, savunmacılar için hangi tespit sinyallerini ve savunma yöntemlerini vurguluyor?
A Savunmacılar, şirketin insan operatörler için 'fiziksel olarak imkansız' olarak adlandırdığı trafiğin yanı sıra teknik telemetri, zaman çizelgesi ayrıntıları ve hızlı faaliyet patlamalarıyla uyarıldı. Anthropic, model çıktılarının kimlik bilgileri veya bulgular konusunda halüsinasyon görebileceği konusunda uyarıyor, bu nedenle çıktıların doğrulanması gerekiyor. Rapor; model farkındalıklı tespit, ani istek patlamaları için anomali analitiği ve araç kullanımı etrafında daha güçlü kimlik doğrulama kapıları öneriyor.
Q Operasyonun arkasında kimin olduğuna inanılıyor ve politika üzerindeki etkileri nelerdir?
A Anthropic, operasyonu yüksek bir güvenle Çin devlet destekli bir grup olan GTG‑1002'ye atfediyor. Bu olay politika yapıcılar için bir mihenk taşı haline geldi: Kanun yapıcılar kötüye kullanılan modellerin sorumluluğunu tartışıyor, çift kullanımlı yapay zeka normlarını değerlendiriyor ve atıf devlet aktörlerini işaret ettiğinde yaptırımları veya uluslararası baskıları ele alıyor.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!