Militante Gruppen setzen verstärkt auf KI-Tools

K.I.
Militant Groups Embrace AI Tools
Vertreter der nationalen Sicherheit warnen, dass Ableger des Islamischen Staats und andere extremistische Gruppen mit generativer KI für Propaganda, Cyberangriffe und Übersetzungen experimentieren. Diese Bedrohung könnte wachsen, da leistungsstarke Werkzeuge immer günstiger und zugänglicher werden. Experten und Gesetzgeber fordern einen schnelleren Informationsaustausch, bessere Erkennungsmethoden und internationale Normen, um die Risiken zu mindern.

Wie extremistische Netzwerke KI zum Teil ihres Werkzeugkastens machen

Am 15. Dezember 2025 beleuchteten Berichte der Associated Press und von PBS eine neue Front bei der Verbreitung von Künstlicher Intelligenz: lose organisierte militante und extremistische Netzwerke, die generative Modelle testen, um die Rekrutierung zu verstärken, Deepfake-Bilder und -Audio zu produzieren, Übersetzungen zu automatisieren und Cyberoperationen zu verschärfen. Die Botschaften sind unverblümt und praktisch – ein Nutzer, der dem Islamischen Staat nahesteht, sagte Unterstützern kürzlich auf Englisch, dass „eines der besten Dinge an der KI ist, wie einfach sie zu bedienen ist“, und forderte sie auf, die Technologie zum Teil ihrer Operationen zu machen. Diese Online-Ermahnung bringt die grundlegende Logik auf den Punkt, die Sicherheitsbehörden Sorgen bereitet: Billige, leistungsstarke KI senkt die Hürde für schädliche Auswirkungen.

Wie Militante KI heute nutzen

Forscher und Überwachungsfirmen berichten von mehreren wiederkehrenden Einsatzmöglichkeiten. Gruppen haben öffentliche generative Modelle zweckentfremdet, um realistische Fotos und Videos zu erstellen, die über soziale Plattformen geteilt werden können; sie haben Deepfake-Audio von Anführern produziert und KI genutzt, um Nachrichten innerhalb weniger Stunden in mehrere Sprachen zu übersetzen; und sie haben begonnen, gezielte Desinformationskampagnen zu führen, die darauf ausgelegt sind, soziale Algorithmen zu füttern. Die SITE Intelligence Group dokumentierte Beispiele wie manipulierte Bilder im Zusammenhang mit dem Israel-Hamas-Krieg und KI-erstellte Propaganda nach einem tödlichen Konzertangriff in Russland. In anderen Fällen haben Angreifer synthetisches Audio verwendet, um sich in Betrugs- und Phishing-Aktionen als Beamte auszugeben.

Diese Taktiken sind nicht alle High-Tech-Wunder: Ein Großteil der Arbeit stützt sich auf Standardwerkzeuge und menschliche Kreativität. Aber in Kombination mit der Verstärkung durch soziale Medien können sie Narrative verschieben, Angst verbreiten und Sympathisanten weit über die Reichweite einer kleinen Organisation hinaus rekrutieren. Wie ein ehemaliger Schwachstellenforscher der NSA, der heute als Führungskraft in der Industrie tätig ist, es ausdrückte: „Mit KI ist selbst eine kleine Gruppe, die nicht viel Geld hat, immer noch in der Lage, eine Wirkung zu erzielen.“

Warum die Bedrohung wächst

Drei technische Trends machen das Problem asymmetrisch und beschleunigen es. Erstens sind generative Modelle – für Text, Bild und Sprache – weit verfügbar und ohne spezielle Ausbildung einfach zu bedienen. Zweitens können Modelle miteinander verkettet werden: Ein Sprachmodell kann Propaganda entwerfen, die ein Bildmodell dann illustriert, während Übersetzungstools die Inhalte für neue Zielgruppen lokalisieren. Drittens ermöglichen kommerzialisierte Rechenleistung und Cloud-Dienste es Akteuren, repetitive Aufgaben zu automatisieren, vom Scrapen von Ziellisten für Phishing bis hin zum Synthetisieren tausender personalisierter Nachrichten.

Diese Kombination ist von Bedeutung, da sie Skalierbarkeit in Einfluss umwandelt. Soziale Plattformen, die darauf ausgelegt sind, Interaktion zu belohnen, verstärken bereitwillig lebhafte, teilbare Inhalte; ein überzeugender Deepfake oder ein aufhetzender übersetzter Beitrag kann sich schnell verbreiten, die Polarisierung verstärken oder an Orten rekrutieren, die in vergangenen Jahrzehnten unzugänglich gewesen wären.

Von Online-Propaganda zu Werkzeugen für das Schlachtfeld

Sicherheitsanalysten sorgen sich auch um operative Anwendungen jenseits der Propaganda. Die jüngste Bedrohungsanalyse des Heimatschutzministeriums der Vereinigten Staaten (DHS) wies explizit auf das Risiko hin, dass KI nichtstaatlichen Akteuren und Einzeltätern helfen könnte, technische Defizite auszugleichen – einschließlich Unterstützung bei Cyberangriffen und, was noch alarmierender ist, bei der Entwicklung biologischer oder chemischer Bedrohungen. Während diese Szenarien schwieriger und ressourcenintensiver sind, sagen das DHS und andere Behörden, dass sie nicht ausgeschlossen werden können, da Modelle und Datensätze an Leistungsfähigkeit gewinnen und Labore sowie Werkzeuge leichter zugänglich werden.

Unterdessen bieten konventionelle militärische Einsatzmöglichkeiten von KI – wie die automatisierte Analyse von Satellitenbildern, Zielerfassungshilfen für Drohnen und Logistikoptimierung – Modelle und Möglichkeiten, die militante Gruppen beobachten und in einfacherer Weise nachahmen können. Der Ukraine-Krieg war ein Testgelände für viele dieser Techniken: Militärs nutzen KI, um große Mengen an Bildern und Videos zu sichten, um Ziele zu finden und Lieferketten zu verwalten, und dasselbe Muster schneller Innovation kann irreguläre Kräfte und Stellvertreter-Akteure inspirieren oder auf sie übergehen.

Konkrete Risiken und jüngste Beispiele

  • Rekrutierung in großem Maßstab: KI-Tools helfen dabei, mehrsprachige, emotional zugeschnittene Propaganda zu produzieren, die Rekrutierer an sympathisierende Zielgruppen ausspielen können.
  • Deepfakes und Täuschung: Manipulierte Bilder und Audioaufnahmen wurden bereits eingesetzt, um Konflikte anzuheizen, Vertrauen zu untergraben und sich als Führungspersönlichkeiten auszugeben, um Erpressungen durchzuführen oder Reaktionen in der realen Welt auszulösen.
  • Cyberoperationen: Angreifer nutzen KI, um anspruchsvolle Phishing-Nachrichten zu entwerfen, Exploit-Code zu schreiben und Aufgaben innerhalb einer Infiltrationskampagne zu automatisieren.

Analysten verweisen auf jüngste Episoden, in denen synthetische Bilder nach aufsehenerregenden Angriffen kursierten, sowie auf dokumentierte Schulungen, die einige Gruppen für Unterstützer zur Nutzung von KI für die Inhaltsproduktion durchgeführt haben. Abgeordnete sagten aus, dass sowohl Ableger des Islamischen Staates als auch von al-Qaida Workshops abgehalten haben, um Unterstützern den Umgang mit generativen Werkzeugen beizubringen.

Was Beamte und Experten empfehlen

Die politische Reaktion entfaltet sich auf mehreren Ebenen. In Washington haben Gesetzgeber einen schnelleren Informationsaustausch zwischen kommerziellen KI-Entwicklern und Regierungsbehörden gefordert, damit Unternehmen Missbrauch melden und bei der Erkennung zusammenarbeiten können. Senator Mark Warner, der ranghöchste Demokrat im Geheimdienstausschuss des Senats, sagte, dass das öffentliche Debüt benutzerfreundlicher Modelle deutlich gemacht habe, dass generative KI eine breite Palette bösartiger Akteure anziehen werde. Das US-Repräsentantenhaus hat ein Gesetz verabschiedet, das die Heimatschutzbehörden verpflichtet, die KI-Risiken durch extremistische Gruppen jährlich zu bewerten. Mitglieder beider Parteien haben die Behörden angewiesen, die Zusammenarbeit mit der Industrie bei Red-Teaming und Meldekanälen für Missbrauch zu beschleunigen.

Technische Maßnahmen werden ebenfalls verfolgt. Unternehmen und Forscher arbeiten an Herkunfts- und Wasserzeichensystemen für generierte Medien, Klassifikatoren, die synthetische Inhalte erkennen, und Durchsetzungsansätzen für Plattformen, die verdächtige automatisierte Konten in ihrer Rate limitieren oder blockieren. Gleichzeitig warnen Bürgerrechtler vor einer zu weit gefassten Überwachung und dem Risiko, legitime Meinungsäußerungen zu zensieren, wenn Erkennungssysteme schlecht konzipiert sind.

Grenzen und schwierige Entscheidungen

Die Minderung der Bedrohung erfordert schwierige Abwägungen. Die Einschränkung der Verbreitung generativer Werkzeuge könnte nützliche Anwendungen – in der Medizin, der Klimamodellierung und der Logistik – verlangsamen, während freier Zugang die Missbrauchsfläche vergrößert. International haben einige Länder und Dutzende US-Bundesstaaten Gesetze verabschiedet oder vorgeschlagen, um bestimmte Arten von Deepfakes einzuschränken; auch die Bundesregierung hat Schritte unternommen, beispielsweise durch das Verbot von KI-generierten Robocalls, die sich als öffentliche Amtsträger ausgeben. Doch verbindliche globale Abkommen über autonome Waffen und die Nutzung von KI durch nichtstaatliche Akteure bleiben politisch schwierig.

Experten, die militärische KI untersuchen, mahnen, dass es kein Allheilmittel gibt. Paul Scharre vom Center for a New American Security stellt fest, dass Kriege Innovationen beschleunigen; je länger intensive Konflikte andauern, desto schneller verbreiten sich gefährliche Techniken. Cybersicherheitsexperten betonen, dass kleine, erschwingliche Verbesserungen bei der Erkennung und dem Plattformdesign – kombiniert mit besserer Medienkompetenz der Nutzer und resilienten Institutionen – viele Angriffe abwehren können. Doch wie ein Cybersicherheits-CEO gegenüber Reportern sagte: „Für jeden Gegner macht KI es wirklich viel einfacher, Dinge zu tun.“

Was als Nächstes zu beobachten ist

Im kommenden Jahr ist mit drei messbaren Trends zu rechnen: häufigere öffentliche Beispiele für KI-gestützte Propaganda und Betrug; ein Anstieg der Forderungen von Gesetzgebern nach Entwicklertransparenz und obligatorischer Missbrauchsmeldung; und ein wachsender Markt für Erkennungswerkzeuge, die sich an Plattformen und Regierungen richten. Behörden werden zudem zunehmend die Schnittstelle von KI mit biologischen Risiken thematisieren und dieses Thema im Auge behalten, während sich Modellierungs- und Synthesewerkzeuge weiterentwickeln.

Für Praktiker und die Öffentlichkeit sind die unmittelbaren Prioritäten praktischer Natur: die Überwachung extremistischer Kanäle verstärken, robuste Mechanismen für Entwickler zur Meldung von Missbrauch schaffen, ohne die Privatsphäre der Nutzer zu verletzen, und in schnelle, erklärbare Erkennungswerkzeuge investieren, die Plattformen in großem Maßstab einsetzen können. Ohne diese Schritte wird kostengünstige generative KI weiterhin als Kraftmultiplikator für Akteure fungieren, die bereits Wege gefunden haben, Informationen und Technologie als Waffe einzusetzen.

Quellen

  • Department of Homeland Security (Homeland Threat Assessment)
  • SITE Intelligence Group (Überwachung extremistischer Aktivitäten)
  • Center for a New American Security (Analyse zu KI und Kriegsführung)
  • National Security Agency (Schwachstellenforschung und öffentlicher Kommentar)
  • Anhörungen im US-Kongress zu extremistischen Bedrohungen und KI
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Wie setzen extremistische Gruppen KI heute ein?
A Gruppen nutzen öffentliche generative Modelle um, um realistische Bilder und Videos für Propaganda zu erstellen, Deepfake-Audioaufnahmen von Führungspersonen zu generieren, Nachrichten innerhalb weniger Stunden in mehrere Sprachen zu übersetzen und gezielte Desinformationskampagnen zu betreiben, die soziale Algorithmen füttern sollen; einige nutzen synthetische Stimmen für Betrug, wobei ein Großteil der Arbeit auf Standardwerkzeugen und menschlicher Kreativität beruht.
Q Welche Faktoren treiben das Wachstum der Bedrohung voran?
A Drei technische Trends machen das Problem asymmetrisch und beschleunigen es: Generative Modelle sind weithin verfügbar und einfach zu bedienen; Modelle können verkettet werden – Textinhalte werden entworfen und dann für neue Zielgruppen illustriert oder übersetzt; kommerzialisierte Rechenleistung und Cloud-Dienste automatisieren repetitive Aufgaben wie das Scraping von Phishing-Zielen und den Massenversand von Nachrichten.
Q Über welche operationellen Risiken machen sich Behörden Sorgen?
A Sicherheitsanalysten befürchten, dass KI nichtstaatlichen Akteuren und Einzeltätern helfen könnte, technische Defizite auszugleichen, einschließlich Cyberangriffen und, was noch alarmierender ist, der Entwicklung biologischer oder chemischer Bedrohungen; konventionelle militärische KI-Anwendungen wie Satellitenbildanalyse, Drohnen-Zielhilfen und Logistikoptimierung könnten von militanten Gruppen beobachtet und in geringerer Qualität nachgeahmt werden.
Q Welche politischen Reaktionen werden verfolgt?
A Gesetzgeber drängen auf einen schnelleren Informationsaustausch zwischen kommerziellen KI-Entwicklern und Regierungsbehörden, um Missbrauch zu melden und bei der Erkennung zu kooperieren; Gesetze zur jährlichen Bewertung von KI-Risiken durch extremistische Gruppen; Beschleunigung der Branchenzusammenarbeit bei Red-Teaming und Missbrauchsmeldungen; Entwicklung von Herkunftsnachweisen und Wasserzeichen, Erkennungsklassifikatoren sowie Plattform-Durchsetzung, um verdächtige automatisierte Konten zu drosseln oder zu blockieren; diese Bemühungen gehen mit Bedenken hinsichtlich der Bürgerrechte einher.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!