Les groupes militants adoptent les outils d'IA

IA
Militant Groups Embrace AI Tools
Selon les responsables de la sécurité nationale, les affiliés de l'État islamique et d'autres groupes extrémistes expérimentent l'IA générative pour la propagande, les cyberattaques et la traduction — une menace qui pourrait s'intensifier à mesure que ces outils puissants se démocratisent. Experts et législateurs réclament un partage d'informations plus rapide et des normes internationales pour atténuer les risques.

Comment les réseaux extrémistes intègrent l'IA à leur arsenal

Le 15 décembre 2025, des reportages de l'Associated Press et de PBS ont mis en lumière un nouveau front dans la prolifération de l'intelligence artificielle : des réseaux militants et extrémistes peu structurés qui testent des modèles génératifs pour amplifier le recrutement, produire des images et des contenus audio hypertruqués (deepfakes), automatiser la traduction et affiner les cyber-opérations. Les messages sont directs et pragmatiques — un utilisateur pro-État islamique a récemment déclaré à ses partisans en anglais que « l'une des meilleures choses à propos de l'IA est sa facilité d'utilisation » et les a exhortés à intégrer cette technologie dans leurs opérations. Cette exhortation en ligne illustre la logique fondamentale qui inquiète les responsables de la sécurité : une IA puissante et bon marché abaisse la barre pour générer un impact malveillant.

Comment les militants utilisent l'IA aujourd'hui

Les chercheurs et les cabinets de surveillance signalent plusieurs utilisations récurrentes. Des groupes ont détourné des modèles génératifs publics pour créer des photos et des vidéos réalistes partageables sur les plateformes sociales ; ils ont produit des enregistrements audio de dirigeants par deepfake et utilisé l'IA pour traduire des messages en plusieurs langues en quelques heures ; et ils ont commencé à mener des campagnes de désinformation ciblées conçues pour alimenter les algorithmes sociaux. SITE Intelligence Group a documenté des exemples incluant des images manipulées circulant autour de la guerre entre Israël et le Hamas et de la propagande conçue par IA suite à un attentat meurtrier lors d'un concert en Russie. Dans d'autres cas, des attaquants ont utilisé l'audio de synthèse pour usurper l'identité de responsables lors d'opérations de fraude et d'hameçonnage (phishing).

Ces tactiques ne sont pas toutes des prouesses technologiques : une grande partie du travail repose sur des outils prêts à l'emploi et sur la créativité humaine. Mais combinées à l'amplification par les réseaux sociaux, elles peuvent modifier les récits, propager la peur et recruter des sympathisants bien au-delà de la portée d'une petite organisation. Comme l'a souligné un ancien chercheur en vulnérabilités de la NSA devenu cadre dans le secteur : « Avec l'IA, même un petit groupe disposant de peu de moyens est capable d'avoir un impact. »

Pourquoi la menace s'intensifie

Trois tendances techniques rendent le problème asymétrique et l'accélèrent. Premièrement, les modèles génératifs — texte, image et voix — sont devenus largement accessibles et faciles à utiliser sans formation spécialisée. Deuxièmement, les modèles peuvent être enchaînés : un modèle de langage peut rédiger de la propagande qu'un modèle d'image illustre ensuite, tandis que des outils de traduction localisent le contenu pour de nouveaux publics. Troisièmement, la banalisation des services de calcul et de cloud permet aux acteurs d'automatiser des tâches répétitives, de la collecte de listes de cibles pour le phishing à la synthèse de milliers de messages personnalisés.

Cette combinaison est cruciale car elle convertit l'échelle en influence. Les plateformes sociales conçues pour récompenser l'engagement amplifieront volontiers des contenus frappants et partageables ; un deepfake convaincant ou une publication traduite incendiaire peut se propager rapidement, accentuant la polarisation ou recrutant dans des endroits qui, au cours des décennies passées, auraient été inaccessibles.

De la propagande en ligne aux outils de combat

Les analystes de sécurité s'inquiètent également des applications opérationnelles au-delà de la propagande. La plus récente évaluation des menaces du Département de la Sécurité intérieure (DHS) a explicitement signalé le risque que l'IA puisse aider des acteurs non étatiques et des attaquants isolés à compenser leurs lacunes techniques — notamment en les aidant lors de cyberattaques et, de manière plus alarmante, dans la conception de menaces biologiques ou chimiques. Bien que ces scénarios soient plus complexes et gourmands en ressources, le DHS et d'autres agences affirment qu'ils ne peuvent être exclus à mesure que la capacité des modèles et des ensembles de données augmente et que l'accès aux laboratoires et aux outils se facilite.

Pendant ce temps, les utilisations militaires conventionnelles de l'IA — telles que l'analyse automatisée d'images satellites, les aides au ciblage par drone et l'optimisation de la logistique — fournissent des modèles et des possibilités que les groupes militants peuvent observer et imiter avec une fidélité moindre. La guerre en Ukraine a été un terrain d'essai pour nombre de ces techniques : les armées utilisent l'IA pour passer au crible de grands volumes d'images et de vidéos afin de trouver des cibles et gérer les chaînes d'approvisionnement, et ce même modèle d'innovation rapide peut inspirer ou se propager vers des forces irrégulières et des acteurs par procuration.

Risques concrets et exemples récents

  • Recrutement à grande échelle : les outils d'IA aident à produire une propagande multilingue et émotionnellement adaptée que les recruteurs peuvent diffuser auprès de publics sympathisants.
  • Deepfakes et tromperie : des images et des sons fabriqués ont déjà été utilisés pour attiser des conflits, éroder la confiance et usurper l'identité de dirigeants à des fins d'extorsion ou pour déclencher des réactions dans le monde réel.
  • Cyber-opérations : les attaquants utilisent l'IA pour rédiger des messages de phishing sophistiqués, écrire du code d'exploitation et automatiser des tâches au sein d'une campagne d'intrusion.

Les analystes pointent des épisodes récents où des images synthétiques ont circulé après des attaques de grande envergure, ainsi que des sessions de formation documentées que certains groupes ont organisées pour leurs partisans sur l'utilisation de l'IA pour la production de contenu. Des législateurs ont témoigné que des affiliés de l'État islamique et d'Al-Qaïda ont organisé des ateliers pour apprendre aux partisans à utiliser des outils génératifs.

Ce que recommandent les responsables et les experts

La réponse politique se déploie sur plusieurs axes. À Washington, les législateurs ont appelé à un partage d'informations plus rapide entre les développeurs d'IA commerciaux et les agences gouvernementales afin que les entreprises puissent signaler les utilisations détournées et collaborer à la détection. Le sénateur Mark Warner, démocrate de haut rang de la commission du renseignement du Sénat, a déclaré que l'arrivée publique de modèles conviviaux montrait clairement que l'IA générative attirerait un large éventail d'acteurs malveillants. La Chambre des représentants des États-Unis a adopté une législation exigeant que les responsables de la sécurité intérieure évaluent chaque année les risques liés à l'IA provenant de groupes extrémistes. Les membres des deux partis ont demandé aux agences d'accélérer la collaboration avec l'industrie sur le « red teaming » et les protocoles de signalement des abus.

Des mesures techniques sont également poursuivies. Les entreprises et les chercheurs travaillent sur des systèmes de provenance et de tatouage numérique (watermarking) pour les médias générés, des classificateurs qui détectent les contenus synthétiques et des approches d'application sur les plateformes qui limitent le débit ou bloquent les comptes automatisés suspects. Dans le même temps, les défenseurs des libertés civiles mettent en garde contre une surveillance trop large et le risque de censurer des discours légitimes si les systèmes de détection sont mal conçus.

Limites et choix difficiles

L'atténuation de la menace nécessite des compromis difficiles. Restreindre la diffusion des outils génératifs pourrait ralentir des utilisations bénéfiques — en médecine, en modélisation climatique et en logistique — tandis que permettre un accès libre augmente la surface de mésusage. Au niveau international, certains pays et des dizaines d'États américains ont adopté ou proposé des lois pour limiter certains types de deepfakes ; le gouvernement fédéral a également pris des mesures, par exemple en interdisant les appels automatisés (robocalls) générés par IA qui usurpent l'identité de responsables publics. Mais des accords mondiaux contraignants sur les armes autonomes et l'utilisation de l'IA par des acteurs non étatiques restent politiquement difficiles.

Les experts qui étudient l'IA militaire préviennent qu'il n'existe pas de solution miracle. Paul Scharre du Center for a New American Security note que les guerres accélèrent l'innovation ; plus les conflits intenses durent, plus les techniques dangereuses se propagent rapidement. Les praticiens de la cybersécurité soulignent que des améliorations modestes et abordables dans la détection et la conception des plateformes — combinées à une meilleure éducation des utilisateurs et à des institutions résilientes — peuvent émousser de nombreuses attaques. Pourtant, comme l'a déclaré un PDG en cybersécurité aux journalistes : « Pour n'importe quel adversaire, l'IA facilite vraiment les choses. »

Ce qu'il faut surveiller ensuite

On peut s'attendre à voir trois tendances mesurables au cours de l'année à venir : des exemples publics plus fréquents de propagande et de fraude assistées par l'IA ; une augmentation de la pression des législateurs pour la transparence des développeurs et le signalement obligatoire des abus ; et un marché en expansion d'outils de détection destinés aux plateformes et aux gouvernements. Les agences signaleront également de plus en plus l'intersection de l'IA avec le risque biologique, gardant ce sujet à l'étude à mesure que les outils de modélisation et de synthèse évoluent.

Pour les praticiens et le public, les priorités immédiates sont pragmatiques : renforcer la surveillance des canaux extrémistes, mettre en place des mécanismes robustes pour que les développeurs signalent les abus sans violer la vie privée des utilisateurs, et investir dans des outils de détection rapides et explicables que les plateformes peuvent déployer à grande échelle. Sans ces mesures, l'IA générative bon marché continuera d'agir comme un multiplicateur de force pour des acteurs qui ont déjà trouvé des moyens de détourner l'information et la technologie à des fins hostiles.

Sources

  • Département de la Sécurité intérieure (Évaluation des menaces pour la patrie)
  • SITE Intelligence Group (surveillance de l'activité extrémiste)
  • Center for a New American Security (analyse sur l'IA et la guerre)
  • National Security Agency (recherche sur les vulnérabilités et commentaires publics)
  • Auditions du Congrès américain sur les menaces extrémistes et l'IA
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Comment les groupes extrémistes utilisent-ils l'IA aujourd'hui ?
A Les groupes détournent les modèles génératifs publics pour produire des images et des vidéos réalistes à des fins de propagande, générer des deepfakes audio de dirigeants, traduire des messages dans plusieurs langues en quelques heures et mener des campagnes de désinformation ciblées conçues pour alimenter les algorithmes sociaux ; certains exploitent les voix synthétiques pour la fraude, bien qu'une grande partie du travail repose sur des outils prêts à l'emploi et sur la créativité humaine.
Q Quels facteurs favorisent la croissance de cette menace ?
A Trois tendances techniques rendent le problème asymétrique et accéléré : les modèles génératifs sont devenus largement accessibles et faciles à utiliser ; les modèles peuvent être enchaînés — le contenu linguistique est rédigé, puis illustré ou traduit pour de nouveaux publics ; l'informatique et les services cloud banalisés automatisent les tâches répétitives comme l'extraction de cibles de phishing et la messagerie de masse.
Q Quels risques opérationnels inquiètent les autorités ?
A Les analystes en sécurité craignent que l'IA ne puisse aider les acteurs non étatiques et les attaquants isolés à compenser leurs lacunes techniques, notamment pour les cyberattaques et, plus inquiétant encore, pour la conception de menaces biologiques ou chimiques ; les utilisations militaires conventionnelles de l'IA, comme l'analyse d'images satellites, l'aide au ciblage des drones et l'optimisation logistique, pourraient être observées et imitées avec une fidélité moindre par des groupes militants.
Q Quelles réponses politiques sont envisagées ?
A Les législateurs demandent un partage plus rapide des informations entre les développeurs d'IA commerciale et les agences gouvernementales pour signaler les abus et coopérer à la détection ; une législation visant à évaluer chaque année les risques liés à l'IA provenant de groupes extrémistes ; l'accélération de la collaboration de l'industrie sur le « red-teaming » et le signalement des abus ; le développement de la provenance et du tatouage numérique (watermarking), des classificateurs de détection et de l'application de mesures sur les plateformes pour limiter le débit ou bloquer les comptes automatisés suspects ; ces efforts s'accompagnent de préoccupations relatives aux libertés civiles.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!