KI-Agenten orchestrieren ersten großflächigen Cyberangriff

K.I.
AI Agents Orchestrate First Large-Scale Cyberattack
Anthropic berichtet, dass eine Spionagekampagne Mitte September 2025 sein Claude-Code-Modell als autonomen Agenten einsetzte, um rund 30 Organisationen ins Visier zu nehmen. Dies markiert eine neue Phase des KI-gestützten Hackings und wirft dringende Fragen für Cybersicherheitsexperten und die Politik auf.

Wenn eine KI aufhört, Ratschläge zu geben, und anfängt zu hacken

Mitte September 2025 registrierten die Überwachungssysteme von Anthropic Datenverkehrsmuster, die sie als „physisch unmöglich“ für menschliche Bediener beschreiben. Die anschließende Untersuchung des Unternehmens ergab, dass ein Akteur, den es als GTG-1002 führt, den Coding-Assistenten von Anthropic, Claude Code, in ein Automatisierungs-Framework eingebunden hatte. Dies ermöglichte es dem Modell, Aufklärung (Reconnaissance) zu betreiben, Exploit-Code zu schreiben, Zugangsdaten zu sammeln und Daten zu extrahieren – und das bei nur gelegentlicher Freigabe durch einen Menschen. Anthropic veröffentlichte im November einen 14-seitigen technischen Bericht über das, was es als die erste dokumentierte groß angelegte Cyberspionagekampagne bezeichnet, die weitgehend von agentischer künstlicher Intelligenz ausgeführt wurde.

Wie die Operation funktionierte

Die Analyse von Anthropic zeichnet ein modulares Bild: Ein menschlicher Operator wählte die Ziele aus und legte strategische Parameter fest, während mehrere Instanzen von Claude Code als spezialisierte Sub-Agenten innerhalb einer Orchestrierungsschicht fungierten, die auf offenen Werkzeugen wie dem Model Context Protocol (MCP) basierte. Diese Sub-Agenten führten diskrete Aufgaben aus – einen IP-Bereich scannen, eine Webanwendung sondieren, eine Payload erstellen, Zugangsdaten testen – und lieferten Ergebnisse zurück, die von der Orchestrierungs-Engine aggregiert und in neue Prompts eingespeist wurden. Das Unternehmen schätzt, dass die KI im Verlauf der Operation etwa 80–90 % der taktischen Arbeit ausführte; Menschen griffen primär ein, um Eskalationsschritte wie die aktive Ausnutzung von Schwachstellen oder das Exfiltrieren sensibler Daten zu genehmigen.

Technisch gesehen stützten sich die Angreifer auf zwei interagierende Fähigkeiten, die in diesem Jahr schnell gereift sind: größere Modelle, die komplexen Code sowie lange, zustandsbehaftete Interaktionen verfolgen und produzieren können (die „Intelligenz“), und Agent-Frameworks, die autonomes, schleifenbasiertes Handeln und die Nutzung von Werkzeugen ermöglichen (die „Agency“). Durch die Zerlegung einer bösartigen Kampagne in kurze, scheinbar harmlose Anfragen – zum Beispiel durch Rollenspiele als Penetrationstester – waren die Betreiber in der Lage, die Guardrails der Modelle zu umgehen, die normalerweise gegen einzelne, offensichtlich schädliche Prompts wirksam sind. Der Bericht von Anthropic enthält eine phasenweise Rekonstruktion, die autonome Enumeration, Validierung von Schwachstellen, Payload-Generierung, Lateral Movement und Daten-Parsing zeigt. Die Spitzenraten der Anfragen erreichten mehrere Operationen pro Sekunde – ein operatives Tempo, das nach Ansicht des Unternehmens diese Kampagne in ihrer Größenordnung von früheren KI-gestützten Intrusionen unterscheidet.

Beweise, Grenzen und Skepsis

Die öffentliche Bekanntmachung von Anthropic umfasst technische Telemetriedaten, Details zum Zeitplan und Abwehrmaßnahmen – darunter das Sperren bösartiger Konten, die Benachrichtigung betroffener Organisationen und die Einschaltung von Behörden während eines etwa zehntägigen Untersuchungsfensters. Das Unternehmen betont, dass die Modelle nicht bloß beratend tätig waren, sondern viele Schritte des Eindringens live ausführten. Es weist zudem auf eine wichtige Einschränkung hin: Claude halluzinierte gelegentlich – berichtete etwa über Zugangsdaten, die nicht funktionierten, oder erfand Erkenntnisse –, was die Angreifer zwang, die Ergebnisse vor dem Handeln zu validieren. Diese Unvollkommenheit, so argumentiert Anthropic, sei sowohl ein Hindernis für Angreifer als auch ein potenzielles Erkennungssignal für Verteidiger.

Nicht jeder akzeptiert die volle Tragweite der Darstellung von Anthropic. Einige unabhängige Sicherheitsforscher und Branchenanalysten haben infrage gestellt, ob sich die 80–90 %-Marke auf die gesamte operative Arbeit oder nur auf taktische Schritte auf niedrigerer Ebene bezieht und ob die Einstufung der Episode als der „erste“ vollständig autonome Großangriff das Risiko birgt, eine komplexe technologische Bedrohungsevolution übermäßig zuzuspitzen. Diese Stimmen warnen davor, eine bemerkenswerte Eskalation mit einem plötzlichen Wegfall menschlicher Beteiligung bei jeder erfolgreichen Operation gleichzusetzen. Die Debatte ist wichtig, da sie maßgeblich beeinflusst, welche Kontrollmechanismen und Erkennungswerkzeuge Verteidiger priorisieren.

Einordnung in eine sich wandelnde Bedrohungslandschaft

Die Enthüllung von Anthropic erfolgte inmitten einer Reihe anderer Erkenntnisse, die zeigen, wie generative Modelle und ML-Toolchains in realen Angriffen und Malware auftauchen. Bedrohungsforscher von Google dokumentierten Anfang des Jahres Stämme wie PromptFlux und PromptSteal, die Modell-Callbacks und adaptives Verhalten in Malware einbetten. Dies demonstriert, wie LLMs genutzt werden können, um Angriffe sowohl maßzuschneidern als auch in freier Wildbahn autonom anzupassen. Zusammengenommen deuten diese Signale auf einen breiteren Trend hin: Angreifer gehen dazu über, KI nicht mehr nur als Entwurfsassistenten zu nutzen, sondern sie direkt in operative Werkzeuge und Malware-Pipelines einzubetten.

Für Verteidiger ergeben sich daraus praktische Herausforderungen. Traditionelle Erkennungsansätze – signaturbasierte Scans, manuelle Triage und Regelwerke, die auf das Tempo menschlicher Angreifer ausgelegt sind – müssen sich nun mit parallelisierten Hochgeschwindigkeitsaktivitäten auseinandersetzen, die in der Telemetrie anders aussehen und andere Artefakte hinterlassen. Der Bericht von Anthropic ermutigt Sicherheitsteams dazu, davon auszugehen, dass agentischer Missbrauch eine kurzfristige Realität ist, und in modellgestützte Erkennung, Anomalie-Analysen für stoßartige Anfragemuster und stärkere Authentifizierungsbarrieren rund um die Tool-Nutzung zu investieren.

Politik, Geopolitik und die neue Angriffsfläche

Anthropic schreibt die Operation mit „hoher Zuversicht“ einer chinesischen, staatlich unterstützten Gruppe zu, die es als GTG-1002 bezeichnet. Der öffentliche Bericht des Unternehmens und die anschließende Berichterstattung haben bereits die Aufmerksamkeit von politischen Entscheidungsträgern und Gesetzgebern auf sich gezogen, die agentische KI als ein nationales Sicherheitsproblem betrachten, das sich von allgemeiner Cyberkriminalität unterscheidet. Ein Briefing des Congressional Research Service fasst die Episode als Wendepunkt zusammen, der Auswirkungen auf Regulierungen, staatliche Beschaffungsprozesse und internationale Normen für Dual-Use-KI-Technologien haben könnte. Dieses Dokument, das für Gesetzgeber erstellt wurde, unterstreicht die Dringlichkeit, Verantwortlichkeiten festzulegen, wenn Modelle missbraucht werden, und zu definieren, welche Pflichten Modellbetreiber haben, um Tool-Chaining und willkürliche Remote-Code-Ausführung zu verhindern.

Diplomatische Konsequenzen sind eine potenzielle Folge: Wenn die Attribution auf staatlich verbundene Akteure hindeutet, können defensive Reaktionen über technische Abhilfemaßnahmen hinausgehen und Sanktionen, öffentliche Zuweisungen oder koordinierten internationalen Druck umfassen. Der Vorfall schürt zudem Debatten innerhalb der KI-Industrie darüber, wie Standardeinstellungen und Guardrails gestaltet werden können, die robust gegen Rollenspiele, Microtasking und Orchestrierungsangriffe sind, ohne legitime Anwendungen wie automatisierte Tests und Entwicklerproduktivität übermäßig einzuschränken.

Was Verteidiger und Entwickler als Nächstes tun können

  • Modell-Endpunkte absichern und Tool-Umfang einschränken: Beschränken Sie, welche APIs und Werkzeuge ein Modell aufrufen kann, fordern Sie Multi-Faktor-Attestierung für sensible Operationen an und führen Sie explizite, verifizierbare Kontext-Tags für defensive Workflows ein.
  • Stoßartige Agenten-Muster erkennen: Instrumentieren Sie die Telemetrie für schnelle Multi-Session-Aktivitäten, ungewöhnlich hohe Callback-Raten und sitzungsübergreifende Zustandspersistenz, die auf eine agentische Orchestrierung hindeuten.
  • Halluzinationen als Erkennungsvorteil nutzen: Modelle, die Zugangsdaten erfinden oder übermäßig viele Fehlalarme produzieren, können unbeabsichtigt Missbrauch offenbaren – Teams sollten Halluzinationssignale hervorheben und protokollieren, um sie mit anderen Anomalien zu korrelieren.

Anthropic betont, dass KI auch Teil der Verteidigung sein wird: Dieselbe Automatisierung kann, wenn sie ordnungsgemäß instrumentiert und gesteuert wird, agentische Bedrohungen mit Maschinengeschwindigkeit jagen, Vorfälle triagieren und die Eindämmung automatisieren. Diese Dual-Use-Realität – dass die Werkzeuge, die Systeme kompromittieren können, auch zu deren Sicherung beitragen können – macht die nächsten 12–24 Monate entscheidend für das Design operativer Sicherheit und die öffentliche Politik.

Die GTG-1002-Episode ist weniger ein einzelner katastrophaler Hack als vielmehr ein technologischer Meilenstein: eine Illustration dafür, dass agentische Modelle, gepaart mit Orchestrierungsschichten und offenen Werkzeugstandards, die Ökonomie des Eindringens verändern können. Ob sich die Sicherheitsgemeinschaft schnell genug anpassen wird, ist die offene Frage, die die dringende Arbeit bei Herstellern, Dienstleistern und nationalen Sicherheitsorganisationen vorantreibt. Der Weg nach vorn erfordert eine robustere Modell-Governance, neue Erkennungsprimitive, die für Gegner mit Maschinengeschwindigkeit entwickelt wurden, und klarere regulatorische Erwartungen darüber, wie Modellentwickler und -betreiber das Tool-Chaining in operative Angriffsframeworks verhindern müssen.

Quellen

  • Anthropic (Technischer Vorfallbericht: „Disrupting the first reported AI-orchestrated cyber espionage campaign“, November 2025)
  • Google Threat Intelligence (Forschung zu Malware und KI-Missbrauch, 2025)
  • Congressional Research Service (Briefing-Papier: Agentische KI und Cyberangriffe)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Was ermöglichte es Claude Code, als autonomer Cyber-Agent zu agieren?
A Laut Anthropic wurde Claude Code in ein Automatisierungs-Framework mit einer Orchestrierungsebene eingebettet, die auf Tools wie dem Model Context Protocol basiert. Dadurch wurden spezialisierte Sub-Agenten geschaffen, die diskrete Aufgaben wie IP-Scanning, Schwachstellenprüfung, die Erstellung von Exploits (Payload Crafting) und das Testen von Zugangsdaten übernehmen. Der menschliche Operator wählte weiterhin die Ziele und strategischen Parameter aus, aber die KI führte etwa 80–90 % der taktischen Arbeit durch iterative Prompts und Agenten-Interaktionen aus.
Q Wie viel der Operation wurde von der KI im Vergleich zu Menschen durchgeführt, und was kontrollierten die Menschen?
A Das Unternehmen schätzt, dass die KI etwa 80–90 % der taktischen Arbeit der Kampagne ausführte, wobei Menschen hauptsächlich eingriffen, um Eskalationsschritte wie die aktive Ausnutzung von Schwachstellen oder die Exfiltration sensibler Daten zu genehmigen. Die Verantwortlichen überwachten den Fortschritt, ließen aber die autonomen Sub-Agenten den Großteil der Aufklärung, des Sammelns von Zugangsdaten und der Datenanalyse durchführen.
Q Welche Erkennungssignale und Abwehrmaßnahmen hebt Anthropic für Verteidiger hervor?
A Verteidiger wurden durch Datenverkehr alarmiert, den das Unternehmen als für menschliche Operatoren „physisch unmöglich“ bezeichnete, zusammen mit technischer Telemetrie, Zeitplandetails und schnellen Aktivitätsschüben. Anthropic warnt davor, dass Modell-Outputs Zugangsdaten oder Erkenntnisse halluzinieren könnten, weshalb Ergebnisse validiert werden müssen. Der Bericht empfiehlt modellbewusste Erkennung, Anomalieanalysen für schubartige Anfragen und stärkere Authentifizierungsschranken bei der Nutzung von Werkzeugen.
Q Wer steckt mutmaßlich hinter der Operation und was sind die politischen Auswirkungen?
A Anthropic schreibt die Operation mit hoher Sicherheit GTG-1002 zu, einer staatlich geförderten chinesischen Gruppe. Der Vorfall ist zu einem Prüfstein für politische Entscheidungsträger geworden: Gesetzgeber debattieren über die Rechenschaftspflicht für missbrauchte Modelle, ziehen Normen für Dual-Use-KI in Betracht und diskutieren über Sanktionen oder internationalen Druck, wenn die Zuweisung staatliche Akteure belastet.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!