武装勢力、AIツールを導入

AI(人工知能)
Militant Groups Embrace AI Tools
国家安全保障当局によると、イスラム国(IS)の関連組織やその他の過激派グループが、プロパガンダ、サイバー攻撃、翻訳などに生成AIを試験的に導入している。強力なツールが安価で普及するにつれ、この脅威は増大する可能性がある。専門家や議員らは、派生的なリスクを軽減するため、迅速な情報共有、検知能力の向上、そして国際的な規範の確立を強く求めている。

過激派ネットワークがいかにしてAIをツールキットの一部に組み込んでいるか

2025年12月15日、Associated PressとPBSの報道は、人工知能(AI)拡散の新たな最前線を浮き彫りにした。緩やかな結びつきを持つ武装勢力や過激派ネットワークが、生成モデルをテストし、勧誘の拡大、ディープフェイクの画像や音声の作成、翻訳の自動化、サイバー運用の高度化を図っている。そのメッセージは露骨で実用的だ。あるイスラム国(IS)支持者のユーザーは最近、英語で支持者に対し「AIの最大の利点の一つは、いかに簡単に使えるかだ」と語り、この技術を活動の一部にするよう促した。オンライン上でのこの勧告は、治安当局が懸念を抱く基本的な論理を象徴している。つまり、安価で強力なAIが、悪影響を及ぼすためのハードルを下げているということだ。

武装勢力による現在のAI活用状況

研究者や監視団体は、いくつかの繰り返される利用形態を報告している。各グループは、公開されている生成モデルを転用して、ソーシャルプラットフォームで共有可能なリアルな写真や動画を作成している。また、指導者のディープフェイク音声を制作したり、AIを使用してメッセージを数時間以内に多言語に翻訳したりしている。さらに、ソーシャルメディアのアルゴリズムに適合するように調整された標的型の偽情報キャンペーンも開始した。SITE Intelligence Groupは、イスラエル・ハマス戦争に関連して拡散された加工画像や、ロシアでの致命的なコンサート襲撃事件後、AIによって作成されたプロパガンダなどの事例を記録している。他のケースでは、攻撃者が合成音声を使用して、詐欺やフィッシング詐欺で当局者を装った例もある。

これらすべての戦術がハイテクによる奇跡というわけではない。その作業の多くは市販のツールと人間の創造性に依存している。しかし、ソーシャルメディアによる増幅効果と組み合わさることで、物語(ナラティブ)を変化させ、恐怖を広め、小さな組織の手が届かないほど遠く離れた場所にまで支持者を勧誘することができる。元NSA(国家安全保障局)の脆弱性研究者で現在は業界幹部の人物は、次のように述べている。「AIを使えば、資金力のない小さなグループであっても、依然として影響を与えることができる」

なぜ脅威が拡大しているのか

3つの技術的トレンドが、この問題を非対称的かつ加速的なものにしている。第一に、テキスト、画像、音声の生成モデルが広く利用可能になり、専門的なトレーニングなしで簡単に操作できるようになったこと。第二に、モデルを連携させることができる点だ。言語モデルがプロパガンダの下書きを作成し、それを画像モデルが図解し、さらに翻訳ツールが新しい聴衆に向けてコンテンツをローカライズすることができる。第三に、汎用化されたコンピューティングとクラウドサービスにより、フィッシング用のターゲットリストの抽出から、パーソナライズされた何千ものメッセージの合成に至るまで、反復的なタスクを自動化できるようになったことだ。

この組み合わせが重要なのは、規模を影響力へと変換するからだ。エンゲージメントを重視するように設計されたソーシャルプラットフォームは、鮮烈で共有しやすいコンテンツを積極的に拡散する。説得力のあるディープフェイクや扇動的な翻訳投稿は瞬く間に広まり、二極化を激化させたり、過去数十年間であれば到達不可能だった場所で勧誘を行ったりすることが可能になる。

オンラインプロパガンダから戦場ツールへ

安全保障のアナリストは、プロパガンダ以外の運用面への応用も懸念している。国土安全保障省(DHS)の最新の脅威評価は、AIが非国家主体や単独の攻撃者の技術的な不足を補う可能性を明示的に指摘した。これにはサイバー攻撃への支援や、より憂慮すべきこととして、生物学的または化学的脅威の設計への支援が含まれる。これらのシナリオは難易度が高く、より多くのリソースを必要とするが、DHSやその他の機関は、モデルやデータセットの能力が向上し、研究所やツールへのアクセスが容易になるにつれて、排除できないとしている。

一方、衛星画像の自動解析、ドローンの標的支援、ロジスティクスの最適化といった従来の軍事的なAI利用は、武装勢力が低い精度で観察・模倣できるモデルや機能を提供している。ウクライナでの戦争は、これらの技術の多くにとっての実験場となっている。軍隊はAIを使用して大量の画像や動画を選別し、標的を特定し、サプライチェーンを管理している。この急速なイノベーションのパターンは、非正規軍や代理主体にインスピレーションを与え、あるいは技術が流出する可能性がある。

具体的なリスクと最近の事例

  • 大規模な勧誘:AIツールは、勧誘担当者が支持者に提供できる、多言語で感情に配慮したプロパガンダの制作を支援する。
  • ディープフェイクと欺瞞:捏造された画像や音声は、紛争を煽り、信頼を損なわせ、恐喝や現実世界での反応を引き起こすために指導者を装う目的ですでに使用されている。
  • サイバー運用:攻撃者はAIを使用して精巧なフィッシングメッセージを作成し、エクスプロイトコードを記述し、侵入キャンペーン内のタスクを自動化する。

アナリストは、注目を集めた攻撃の後に合成画像が拡散した最近のエピソードや、一部のグループが支持者向けに行った、コンテンツ制作のためのAI利用に関する文書化されたトレーニングセッションを指摘している。議員らは、イスラム国やアルカイダの系列組織が、支持者に生成ツールを教えるためのワークショップを開催したと証言した。

当局者や専門家による推奨策

政策面での対応は複数の軸で進められている。ワシントンでは、企業が不正利用を報告し、検知において協力できるよう、商用AI開発者と政府機関との間の迅速な情報共有を求める声が議員から上がっている。上院情報委員会の民主党筆頭委員であるMark Warner上院議員は、使いやすいモデルの公開により、生成AIが幅広い悪意ある主体を引きつけることが明らかになったと述べた。米下院は、国土安全保障当局に対し、過激派グループによるAIのリスクを毎年評価することを義務付ける法案を可決した。超党派の議員らは各機関に対し、レッドチーミングや不正利用の報告経路について業界との連携を加速するよう指示している。

技術的な対策も進められている。企業や研究者は、生成されたメディアの出自証明や電子透かしシステム、合成コンテンツを検出する分類器、不審な自動アカウントを制限またはブロックするプラットフォームの執行アプローチに取り組んでいる。同時に、市民的自由の擁護派は、検知システムの設計が不十分な場合、広範すぎる監視や正当な言論の検閲につながるリスクを警告している。

限界と困難な選択

脅威を緩和するには、困難なトレードオフが必要となる。生成ツールの普及を制限すれば、医学、気候モデリング、ロジスティクスにおける有益な活用を遅らせる可能性がある一方で、自由なアクセスを認めれば、悪用の余地が拡大する。国際的には、一部の国や米国の数十の州が特定の種類のディープフェイクを制限する法律を可決または提案している。連邦政府も、公職者を装ったAI生成の自動音声電話(ロボコール)を禁止するなど、対策を講じている。しかし、自律型兵器や非国家主体によるAI利用に関する拘束力のある世界的な合意は、政治的に依然として困難な状況にある。

軍事AIを研究する専門家は、特効薬は存在しないと警告する。Center for a New American SecurityのPaul Scharre氏は、戦争はイノベーションを加速させると指摘する。激しい紛争が長く続くほど、危険な技術の拡散も早まる。サイバーセキュリティの実務家は、検知技術やプラットフォーム設計における、小規模で手頃な改善が、ユーザーのリテラシー向上や組織のレジリエンス強化と組み合わさることで、多くの攻撃を鈍らせることができると強調する。しかし、あるサイバーセキュリティ企業のCEOが記者団に語ったように、「あらゆる敵対者にとって、AIは物事を行うことを真に容易にする」のである。

今後の注目点

今後1年間に、測定可能な3つのトレンドが予想される。AIを悪用したプロパガンダや詐欺の公開事例の増加、開発者の透明性と不正利用報告の義務化を迫る議員の動きの活発化、そしてプラットフォームや政府を対象とした検知ツールの市場拡大である。また、各機関は、モデリングや合成ツールの進化に合わせて、AIと生物学的リスクの接点をますます重要視し、このトピックを継続的な検討対象とするだろう。

実務家や一般市民にとっての当面の優先事項は実用的なものだ。過激派チャネルの監視を強化し、ユーザーのプライバシーを侵害することなく開発者が不正利用を報告できる堅牢なメカニズムを構築し、プラットフォームが大規模に展開できる迅速で説明可能な検知ツールに投資することである。これらの措置がなければ、安価な生成AIは、情報や技術を武器にする方法をすでに見つけている主体にとって、戦力倍増(フォースマルチプライヤー)として機能し続けるだろう。

出典

  • Department of Homeland Security (国土脅威評価)
  • SITE Intelligence Group (過激派活動の監視)
  • Center for a New American Security (AIと戦争に関する分析)
  • National Security Agency (脆弱性研究および公的論評)
  • 過激派の脅威とAIに関する米国議会公聴会
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 現在、過激派グループはどのようにAIを利用していますか?
A これらのグループは、公開されている生成モデルを転用して、プロパガンダ用のリアルな画像や動画を作成したり、指導者のディープフェイク音声を生成したり、数時間以内にメッセージを多言語に翻訳したりしています。また、ソーシャルメディアのアルゴリズムに最適化された標的型の偽情報キャンペーンを展開しています。一部では詐欺のために合成音声が悪用されることもありますが、その多くは市販のツールと人間の創意工夫に頼っています。
Q 脅威が増大している要因は何ですか?
A 3つの技術的トレンドが、この問題を非対称かつ加速的なものにしています。第一に、生成モデルが広く普及し、操作が容易になったこと。第二に、複数のモデルを連携させることが可能になり、作成した文章に挿入画を添えたり、新たな読者向けに翻訳したりできるようになったこと。第三に、汎用化されたコンピューティング資源やクラウドサービスにより、フィッシング詐欺の標的収集や大量のメッセージ送信といった反復作業が自動化されたことです。
Q 当局はどのような運用上のリスクを懸念していますか?
A セキュリティアナリストは、AIが非国家主体や単独の攻撃者の技術的不足を補い、サイバー攻撃や、より深刻なケースでは生物・化学兵器の設計を助けることを懸念しています。また、衛星画像の解析、ドローンの標的設定支援、ロジスティクスの最適化といった従来の軍事的なAI活用法が、武装勢力によって(精度は低いにせよ)観察・模倣される可能性があります。
Q どのような政策対応が進められていますか?
A 議員たちは、悪用を特定し検知に協力するため、民間のAI開発者と政府機関との間での迅速な情報共有を求めています。これには、過激派グループによるAIリスクを毎年評価する法律の制定、レッドチーミングや悪用報告に関する業界の連携強化、来歴管理や電子透かし技術の開発、検知用分類器の整備、そして不審な自動アカウントを制限・遮断するプラットフォームの取り締まりなどが含まれます。ただし、こうした取り組みには市民の自由をめぐる懸念も伴います。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!