Hoe extremistische netwerken AI toevoegen aan hun instrumentarium
Op 15 december 2025 belichtten rapportages van de Associated Press en PBS een nieuw front in de verspreiding van artificiële intelligentie: losvast georganiseerde militante en extremistische netwerken die generatieve modellen testen om rekrutering te versterken, deepfake-beelden en -audio te produceren, vertalingen te automatiseren en cyberoperaties aan te scherpen. De boodschappen zijn onomwonden en praktisch — een pro-Islamitische Staat-gebruiker vertelde supporters onlangs in het Engels dat "een van de beste dingen aan AI is hoe gemakkelijk het te gebruiken is" en drong er bij hen op aan om de technologie onderdeel te maken van hun operaties. Die online aansporing vat de fundamentele logica samen die zorgen baart onder veiligheidsfunctionarissen: goedkope, krachtige AI verlaagt de drempel voor kwaadaardige impact.
Hoe militanten AI vandaag de dag gebruiken
Onderzoekers en monitoringbedrijven melden verschillende terugkerende toepassingen. Groepen hebben publieke generatieve modellen hergebruikt om realistische foto's en video's te maken die via sociale platforms kunnen worden gedeeld; ze hebben deepfake-audio van leiders geproduceerd en AI gebruikt om berichten binnen enkele uren in meerdere talen te vertalen; en ze zijn begonnen met het uitvoeren van gerichte desinformatiecampagnes die zijn afgestemd op sociale algoritmen. SITE Intelligence Group documenteerde voorbeelden waaronder gemanipuleerde beelden die werden verspreid rond de oorlog tussen Israël en Hamas en door AI vervaardigde propaganda na een dodelijke aanslag op een concertgebouw in Rusland. In andere gevallen hebben aanvallers synthetische audio gebruikt om functionarissen te imiteren bij fraude- en phishingoperaties.
Die tactieken zijn niet allemaal technologische wonderen: veel van het werk leunt op kant-en-klare tools en menselijke creativiteit. Maar gecombineerd met de versterking via sociale media kunnen ze narratieven verschuiven, angst zaaien en sympathisanten rekruteren ver buiten het bereik van een kleine organisatie. Zoals een voormalig NSA-kwetsbaarheidsonderzoeker die nu werkzaam is in de private sector het verwoordde: "Met AI is zelfs een kleine groep die niet veel geld heeft, nog steeds in staat om impact te maken."
Waarom de dreiging toeneemt
Drie technische trends maken het probleem asymmetrisch en zorgen voor een versnelling. Ten eerste zijn generatieve modellen — tekst, beeld en stem — breed beschikbaar en gemakkelijk te bedienen geworden zonder gespecialiseerde training. Ten tweede kunnen modellen aan elkaar worden gekoppeld: een taalmodel kan propaganda opstellen die vervolgens door een beeldmodel wordt geïllustreerd, terwijl vertaaltools de inhoud lokaliseren voor een nieuw publiek. Ten derde stellen gestandaardiseerde rekenkracht en clouddiensten actoren in staat om repetitieve taken te automatiseren, van het scrapen van doelwittenlijsten voor phishing tot het synthetiseren van duizenden gepersonaliseerde berichten.
Die combinatie is van belang omdat het schaal omzet in invloed. Sociale platforms die zijn ontworpen om betrokkenheid te belonen, zullen levendige, deelbare content gretig verspreiden; een overtuigende deepfake of een opruiende vertaalde post kan zich snel verspreiden, wat polarisatie aanwakkert of rekrutering mogelijk maakt op plaatsen die in voorgaande decennia ontoegankelijk zouden zijn geweest.
Van online propaganda naar hulpmiddelen op het slagveld
Veiligheidsanalisten maken zich ook zorgen over operationele toepassingen buiten propaganda. De meest recente dreigingsanalyse van het Department of Homeland Security wees expliciet op het risico dat AI niet-statelijke actoren en eenling-aanvallers zou kunnen helpen technische tekortkomingen te compenseren — inclusief hulp bij cyberaanvallen en, verontrustender, bij het ontwikkelen van biologische of chemische dreigingen. Hoewel die scenario's complexer zijn en meer middelen vereisen, stellen DHS en andere instanties dat ze niet kunnen worden uitgesloten naarmate modellen en datasets krachtiger worden en laboratoria en instrumenten gemakkelijker toegankelijk worden.
Ondertussen bieden conventionele militaire toepassingen van AI — zoals geautomatiseerde analyse van satellietbeelden, doelzoekhulpmiddelen voor drones en logistieke optimalisatie — modellen en mogelijkheden die militante groepen kunnen observeren en op een eenvoudiger niveau kunnen imiteren. De oorlog in Oekraïne is een proeftuin geweest voor veel van deze technieken: legers gebruiken AI om grote hoeveelheden beeldmateriaal en video te doorzoeken om doelen te vinden en toeleveringsketens te beheren, en datzelfde patroon van snelle innovatie kan irreguliere strijdkrachten en proxy-actoren inspireren of naar hen doorsijpelen.
Concrete risico's en recente voorbeelden
- Rekrutering op schaal: AI-tools helpen bij het produceren van meertalige, emotioneel afgestemde propaganda die ronselaars naar sympathiserende doelgroepen kunnen sturen.
- Deepfakes en misleiding: gefabriceerde beelden en audio zijn al gebruikt om conflicten aan te wakkeren, het vertrouwen te ondermijnen en leiders te imiteren voor afpersing of om reacties in de fysieke wereld uit te lokken.
- Cyberoperaties: aanvallers gebruiken AI om geavanceerde phishingberichten op te stellen, exploitcode te schrijven en taken binnen een inbraakcampagne te automatiseren.
Analisten wijzen op recente incidenten waarbij synthetische beelden circuleerden na geruchtmakende aanvallen, en op gedocumenteerde trainingssessies die sommige groepen voor supporters hebben georganiseerd over het gebruik van AI voor de productie van content. Wetgevers getuigden dat gelieerden van zowel Islamitische Staat als al-Qaida workshops hebben gehouden om aanhangers te leren generatieve tools te gebruiken.
Wat functionarissen en experts aanbevelen
De beleidsreactie ontvouwt zich op meerdere fronten. In Washington hebben wetgevers aangedrongen op snellere informatie-uitwisseling tussen commerciële AI-ontwikkelaars en overheidsinstanties, zodat bedrijven misbruik kunnen signaleren en kunnen samenwerken aan detectie. Sen. Mark Warner, de belangrijkste Democraat in de Senate Intelligence Committee, zei dat het publieke debuut van gebruiksvriendelijke modellen duidelijk maakte dat generatieve AI een breed scala aan kwaadwillende actoren zou aantrekken. Het Amerikaanse Huis van Afgevaardigden heeft wetgeving aangenomen die functionarissen op het gebied van binnenlandse veiligheid verplicht om jaarlijks de AI-risico's van extremistische groepen te beoordelen. Leden van beide partijen hebben instanties opgedragen de samenwerking met de industrie op het gebied van red-teaming en meldingsroutes voor misbruik te versnellen.
Er worden ook technische maatregelen nagestreefd. Bedrijven en onderzoekers werken aan herkomst- en watermerksystemen voor gegenereerde media, classifiers die synthetische inhoud detecteren, en handhavingsmethoden op platforms die verdachte geautomatiseerde accounts beperken of blokkeren. Tegelijkertijd waarschuwen voorvechters van burgerlijke vrijheden voor te brede surveillance en het risico op censuur van legitieme meningsuiting als detectiesystemen slecht zijn ontworpen.
Beperkingen en de moeilijke keuzes
Het beperken van de dreiging vereist lastige afwegingen. Het inperken van de verspreiding van generatieve tools zou gunstig gebruik — in de geneeskunde, klimaatmodellering en logistiek — kunnen vertragen, terwijl vrije toegang het oppervlak voor misbruik vergroot. Internationaal hebben sommige landen en tientallen Amerikaanse staten wetten aangenomen of voorgesteld om bepaalde soorten deepfakes te beperken; ook de federale overheid heeft stappen ondernomen, bijvoorbeeld door door AI gegenereerde robocalls die publieke functionarissen imiteren te verbieden. Maar bindende mondiale overeenkomsten over autonome wapens en het gebruik van AI door niet-statelijke actoren blijven politiek lastig.
Experts die militaire AI bestuderen, waarschuwen dat er geen wondermiddel is. Paul Scharre van het Center for a New American Security merkt op dat oorlogen innovatie versnellen; hoe langer intense conflicten voortduren, hoe sneller gevaarlijke technieken zich verspreiden. Cybersecurity-experts benadrukken dat kleine, betaalbare verbeteringen in detectie en platformontwerp — gecombineerd met een betere geletterdheid van gebruikers en veerkrachtige instellingen — veel aanvallen kunnen afstompen. Toch zei een cybersecurity-CEO tegen verslaggevers: "Voor elke tegenstander maakt AI het echt veel gemakkelijker om dingen te doen."
Wat we kunnen verwachten
Verwacht het komende jaar drie meetbare trends: frequentere publieke voorbeelden van door AI ondersteunde propaganda en fraude; een toename van wetgevers die aandringen op transparantie van ontwikkelaars en verplichte rapportage van misbruik; en een groeiende markt van detectietools gericht op platforms en overheden. Instanties zullen ook steeds vaker wijzen op het snijvlak van AI en biologische risico's, en dit onderwerp nauwlettend in de gaten houden naarmate modellerings- en synthesitools evolueren.
Voor professionals en het publiek zijn de onmiddellijke prioriteiten praktisch: versterk de monitoring van extremistische kanalen, bouw robuuste mechanismen voor ontwikkelaars om misbruik te melden zonder de privacy van gebruikers te schenden, en investeer in snelle, verklaarbare detectietools die platforms op schaal kunnen inzetten. Zonder die stappen zal goedkope generatieve AI een force multiplier blijven voor actoren die al manieren hebben gevonden om informatie en technologie als wapen in te zetten.
Bronnen
- Department of Homeland Security (Homeland Threat Assessment)
- SITE Intelligence Group (monitoring van extremistische activiteiten)
- Center for a New American Security (analyse over AI en oorlogsvoering)
- National Security Agency (kwetsbaarheidsonderzoek en publiek commentaar)
- Amerikaanse hoorzittingen in het Congres over extremistische dreigingen en AI
Comments
No comments yet. Be the first!