Hur extremistnätverk gör AI till en del av sin verktygslåda
Den 15 december 2025 belyste rapportering från Associated Press och PBS en ny front i spridningen av artificiell intelligens: löst sammansatta militanta och extremistiska nätverk som testar generativa modeller för att förstärka rekrytering, producera deepfake-bilder och ljud, automatisera översättning och vässa cyberoperationer. Budskapen är raka och praktiska – en användare som stödjer Islamiska staten sa nyligen till sina anhängare på engelska att "en av de bästa sakerna med AI är hur lätt det är att använda" och uppmanade dem att göra tekniken till en del av sin verksamhet. Denna uppmaning på nätet fångar den grundläggande logik som driver oron bland säkerhetstjänstemän: billig, kraftfull AI sänker tröskeln för skadlig påverkan.
Hur militanta grupper använder AI idag
Forskare och övervakningsföretag rapporterar om flera återkommande användningsområden. Grupper har anpassat offentliga generativa modeller för att skapa realistiska foton och videor som kan delas på sociala plattformar; de har producerat deepfake-ljud av ledare och använt AI för att översätta meddelanden till flera språk inom loppet av några timmar; och de har börjat driva riktade desinformationskampanjer utformade för att mata sociala algoritmer. SITE Intelligence Group dokumenterade exempel som inkluderade manipulerade bilder som spreds kring kriget mellan Israel och Hamas samt AI-skapad propaganda efter en dödlig konsertattack i Ryssland. I andra fall har angripare använt syntetiskt ljud för att utge sig för att vara tjänstemän i bedrägeri- och nätfiskeoperationer.
Dessa taktiker är inte enbart högteknologiska mirakel: mycket av arbetet bygger på standardverktyg och mänsklig kreativitet. Men i kombination med förstärkning i sociala medier kan de förändra narrativ, sprida rädsla och rekrytera sympatisörer långt utanför en liten organisations räckvidd. Som en tidigare sårbarhetsforskare vid NSA, numera chef inom industrin, uttryckte det: "Med AI kan även en liten grupp utan mycket pengar ändå göra avtryck."
Varför hotet växer
Tre tekniska trender gör problemet asymmetriskt och accelererande. För det första har generativa modeller – för text, bild och röst – blivit allmänt tillgängliga och lätta att använda utan specialiserad utbildning. För det andra kan modeller kedjas samman: en språkmodell kan utforma propaganda som en bildmodell sedan illustrerar, medan översättningsverktyg lokaliserar innehållet för nya målgrupper. För det tredje gör kommersialiserad beräkningskapacitet och molntjänster att aktörer kan automatisera repetitiva uppgifter, från att skrapa mållistor för nätfiske till att syntetisera tusentals personliga meddelanden.
Denna kombination är betydelsefull eftersom den omvandlar skala till inflytande. Sociala plattformar som är utformade för att belöna engagemang förstärker gärna livfullt, delbart innehåll; en övertygande deepfake eller ett uppviglande översatt inlägg kan spridas snabbt, vilket ökar polariseringen eller rekryteringen på platser som under tidigare årtionden skulle ha varit oåtkomliga.
Från onlinepropaganda till slagfältsverktyg
Säkerhetsanalytiker oroar sig även för operativa tillämpningar bortom propaganda. Department of Homeland Securitys senaste hotbedömning flaggade uttryckligen för risken att AI kan hjälpa icke-statliga aktörer och ensamagerande angripare att kompensera för tekniska brister – inklusive assistans vid cyberattacker och, mer oroande, vid framställning av biologiska eller kemiska hot. Även om dessa scenarier är svårare och mer resurskrävande, menar DHS och andra myndigheter att de inte kan uteslutas i takt med att modeller och dataset blir mer kapabla och laboratorier och verktyg blir lättare att komma åt.
Samtidigt ger konventionell militär användning av AI – såsom automatiserad analys av satellitbilder, målsökningsstöd för drönare och logistikoptimering – modeller och möjligheter som militanta grupper kan observera och efterlikna med lägre precision. Kriget i Ukraina har varit ett testfält för många av dessa tekniker: militärer använder AI för att sålla igenom stora mängder bilder och video för att hitta mål och hantera försörjningskedjor, och samma mönster av snabb innovation kan inspirera eller läcka till irreguljära styrkor och ombud.
Konkreta risker och nyliga exempel
- Rekrytering i stor skala: AI-verktyg hjälper till att producera flerspråkig, känslomässigt anpassad propaganda som rekryterare kan rikta till mottagliga målgrupper.
- Deepfakes och bedrägeri: fabricerade bilder och ljud har redan använts för att underblåsa konflikter, urholka förtroende och utge sig för att vara ledare för utpressning eller för att utlösa reaktioner i den verkliga världen.
- Cyberoperationer: angripare använder AI för att skriva sofistikerade nätfiskemeddelanden, skriva exploit-kod och automatisera uppgifter inom en intrångskampanj.
Analytiker pekar på nyliga händelser där syntetiska bilder spreds efter uppmärksammade attacker, och på dokumenterade utbildningssessioner som vissa grupper har hållit för anhängare om hur man använder AI för innehållsproduktion. Lagstiftare vittnade om att dotterbolag till både Islamiska staten och al-Qaida har hållit workshops för att lära anhängare att använda generativa verktyg.
Vad tjänstemän och experter rekommenderar
Det politiska svaret utvecklas på flera spår. I Washington har lagstiftare uppmanat till snabbare informationsutbyte mellan kommersiella AI-utvecklare och statliga myndigheter så att företag kan flagga missbruk och samarbeta kring upptäckt. Senator Mark Warner, den högst rankade demokraten i senatens underrättelsekommitté, sa att den offentliga debuten av användarvänliga modeller gjorde det tydligt att generativ AI skulle locka ett brett spektrum av skadliga aktörer. Representanthuset har antagit lagstiftning som kräver att tjänstemän inom inrikessäkerhet årligen bedömer AI-risker från extremistgrupper. Medlemmar från båda partierna har uppmanat myndigheter att påskynda samarbetet med industrin kring red-teaming och vägar för att rapportera missbruk.
Tekniska åtgärder vidtas också. Företag och forskare arbetar med system för ursprungsbestämning och vattenmärkning av genererade medier, klassificerare som upptäcker syntetiskt innehåll, och metoder för plattformstillämpning som begränsar eller blockerar misstänkta automatiserade konton. Samtidigt varnar företrädare för medborgerliga rättigheter för alltför omfattande övervakning och risken för att censurera legitimt tal om detekteringssystemen är dåligt utformade.
Begränsningar och svåra val
Att mildra hotet kräver svåra avvägningar. Att begränsa spridningen av generativa verktyg kan bromsa nyttig användning – inom medicin, klimatmodellering och logistik – medan fri tillgång ökar ytan för missbruk. Internationellt har vissa länder och dussintals amerikanska delstater antagit eller föreslagit lagar för att begränsa vissa typer av deepfakes; den federala regeringen har också tagit steg, till exempel genom att förbjuda AI-genererade robocalls som utger sig för att vara offentliga tjänstemän. Men bindande globala avtal om autonoma vapen och icke-statlig användning av AI förblir politiskt svåra.
Experter som studerar militär AI varnar för att det inte finns något universalmedel. Paul Scharre från Center for a New American Security noterar att krig påskyndar innovation; ju längre intensiva konflikter fortsätter, desto snabbare sprids farliga tekniker. Cybersäkerhetsexperter betonar att små, prisvärda förbättringar i detektering och plattformsdesign – i kombination med bättre användarkunskap och motståndskraftiga institutioner – kan dämpa många attacker. Men som en VD för ett cybersäkerhetsföretag sa till reportrar: "För vilken motståndare som helst gör AI det verkligen mycket lättare att utföra saker."
Vad man bör hålla utkik efter framöver
Räkna med att se tre mätbara trender under det kommande året: mer frekventa offentliga exempel på AI-understödd propaganda och bedrägeri; en ökning av lagstiftare som trycker på för transparens hos utvecklare och obligatorisk rapportering av missbruk; och en växande marknad för detekteringsverktyg riktade till plattformar och regeringar. Myndigheter kommer också alltmer att flagga för skärningspunkten mellan AI och biologiska risker, och hålla det ämnet under granskning i takt med att modellerings- och syntesverktyg utvecklas.
För yrkesverksamma och allmänheten är de omedelbara prioriteringarna praktiska: förstärk övervakningen av extremistkanaler, bygg robusta mekanismer för utvecklare att rapportera missbruk utan att kränka användarnas integritet, och investera i snabba, förklarbara detekteringsverktyg som plattformar kan använda i stor skala. Utan dessa steg kommer billig generativ AI att fortsätta fungera som en kraftmultiplikator för aktörer som redan har hittat sätt att använda information och teknik som vapen.
Källor
- Department of Homeland Security (Homeland Threat Assessment)
- SITE Intelligence Group (övervakning av extremistisk aktivitet)
- Center for a New American Security (analys av AI och krigföring)
- National Security Agency (sårbarhetsforskning och offentliga kommentarer)
- USA:s kongressutfrågningar om extremistiska hot och AI
Comments
No comments yet. Be the first!