Радикальные группировки осваивают инструменты ИИ

Militant Groups Embrace AI Tools
Представители служб национальной безопасности заявляют, что филиалы «Исламского государства» и другие экстремистские группировки экспериментируют с генеративным ИИ для создания пропаганды, проведения кибератак и перевода текстов. Эта угроза может усилиться по мере того, как мощные технологии становятся дешевле и доступнее. Эксперты и законодатели призывают к ускоренному обмену информацией, совершенствованию систем обнаружения и созданию международных норм для минимизации рисков.

Как экстремистские сети превращают ИИ в часть своего арсенала

15 декабря 2025 года репортажи Associated Press и PBS осветили новый фронт в распространении искусственного интеллекта: разрозненные боевые и экстремистские сети тестируют генеративные модели для усиления вербовки, создания дипфейк-изображений и аудио, автоматизации перевода и совершенствования киберопераций. Их сообщения прямолинейны и практичны — один из сторонников «Исламского государства» недавно заявил на английском языке другим участникам, что «одно из главных преимуществ ИИ — это простота использования», и призвал их внедрять эту технологию в свои операции. Этот онлайн-призыв отражает основную логику, вызывающую обеспокоенность у сотрудников служб безопасности: дешевый и мощный ИИ снижает порог для нанесения вреда.

Как боевики используют ИИ сегодня

Исследователи и мониторинговые компании отмечают несколько повторяющихся сценариев использования. Группировки адаптировали общедоступные генеративные модели для создания реалистичных фото и видео, которые можно распространять в социальных сетях; они создавали дипфейк-аудиозаписи лидеров и использовали ИИ для перевода сообщений на несколько языков в течение нескольких часов; также они начали запускать целевые кампании по дезинформации, адаптированные под алгоритмы соцсетей. SITE Intelligence Group задокументировала примеры, включая манипулятивные изображения, распространявшиеся в связи с войной между Израилем и ХАМАС, и пропаганду, созданную ИИ после смертоносного нападения на концертный зал в России. В других случаях злоумышленники использовали синтезированное аудио, чтобы выдавать себя за официальных лиц в операциях по мошенничеству и фишингу.

Эти тактики не являются исключительно высокотехнологичным чудом: большая часть работы опирается на готовые инструменты и человеческую креативность. Однако в сочетании с усилением через социальные сети они способны менять информационную повестку, сеять страх и вербовать сторонников далеко за пределами охвата небольшой организации. Как выразился один бывший исследователь уязвимостей АНБ, ставший руководителем в технологической индустрии: «Благодаря ИИ даже небольшая группа, не обладающая большими средствами, все равно способна оказать значительное влияние».

Почему угроза растет

Три технические тенденции придают проблеме асимметричный и ускоряющийся характер. Во-первых, генеративные модели — текстовые, графические и голосовые — стали широко доступны и просты в управлении без специальной подготовки. Во-вторых, модели можно объединять в цепочки: языковая модель может составить текст пропаганды, который затем иллюстрирует имиджевая модель, в то время как инструменты перевода локализуют контент для новой аудитории. В-третьих, коммодитизированные вычислительные мощности и облачные сервисы позволяют участникам автоматизировать повторяющиеся задачи: от парсинга списков целей для фишинга до синтеза тысяч персонализированных сообщений.

Эта комбинация имеет значение, так как она превращает масштаб во влияние. Социальные платформы, спроектированные для поощрения вовлеченности, охотно продвигают яркий контент, которым хочется поделиться; убедительный дипфейк или провокационный переведенный пост могут распространяться мгновенно, усиливая поляризацию или способствуя вербовке в тех регионах, которые в прошлые десятилетия были недоступны.

От онлайн-пропаганды до инструментов на поле боя

Аналитики по вопросам безопасности также обеспокоены операционным применением ИИ за пределами пропаганды. В последней оценке угроз Министерства внутренней безопасности США (DHS) прямо указывалось на риск того, что ИИ может помочь негосударственным субъектам и террористам-одиночкам компенсировать технические недостатки — включая помощь в проведении кибератак и, что более тревожно, в разработке биологических или химических угроз. Хотя эти сценарии сложнее и требуют больше ресурсов, DHS и другие ведомства заявляют, что их нельзя исключать по мере роста возможностей моделей и наборов данных, а также упрощения доступа к лабораториям и инструментам.

Между тем, традиционное военное использование ИИ — такое как автоматизированный анализ спутниковых снимков, средства наведения дронов и оптимизация логистики — дает примеры и возможности, которые боевики могут наблюдать и имитировать на более простом уровне. Война в Украине стала полигоном для многих из этих методов: военные используют ИИ для просеивания огромных объемов изображений и видео для поиска целей и управления цепочками поставок, и эта же модель быстрых инноваций может вдохновлять и проникать в иррегулярные формирования и прокси-силы.

Конкретные риски и недавние примеры

  • Масштабная вербовка: инструменты ИИ помогают создавать многоязычную, эмоционально выверенную пропаганду, которую вербовщики могут направлять сочувствующей аудитории.
  • Дипфейки и обман: сфабрикованные изображения и аудио уже использовались для разжигания конфликтов, подрыва доверия и имитации голосов лидеров для вымогательства или провоцирования реальных инцидентов.
  • Кибероперации: злоумышленники используют ИИ для составления сложных фишинговых сообщений, написания эксплойт-кода и автоматизации задач в рамках кампаний по проникновению.

Аналитики указывают на недавние эпизоды, когда синтетические изображения распространялись после громких терактов, а также на задокументированные обучающие сессии, которые некоторые группы проводили для сторонников по использованию ИИ для производства контента. Законодатели свидетельствовали, что филиалы как «Исламского государства», так и «Аль-Каиды» проводили семинары, обучая сторонников использованию генеративных инструментов.

Что рекомендуют официальные лица и эксперты

Меры политики развиваются по нескольким направлениям. В Вашингтоне законодатели призвали к ускорению обмена информацией между коммерческими разработчиками ИИ и государственными учреждениями, чтобы компании могли фиксировать случаи нецелевого использования и сотрудничать в области обнаружения. Сенатор Марк Уорнер, высокопоставленный демократ в комитете Сената по разведке, заявил, что публичный дебют удобных для пользователя моделей ясно дал понять: генеративный ИИ привлечет широкий круг злоумышленников. Палата представителей США приняла закон, требующий от чиновников национальной безопасности ежегодно оценивать риски ИИ со стороны экстремистских групп. Представители обеих партий поручили ведомствам ускорить сотрудничество с индустрией в вопросах ред-тиминга и каналов сообщения о злоупотреблениях.

Также принимаются технические меры. Компании и исследователи работают над системами подтверждения подлинности и маркировки водяными знаками для сгенерированного медиаконтента, классификаторами, которые обнаруживают синтетический контент, и методами контроля платформ, которые ограничивают скорость работы или блокируют подозрительные автоматизированные учетные записи. В то же время защитники гражданских свобод предупреждают о чрезмерно широкой слежке и риске цензуры законных высказываний, если системы обнаружения будут спроектированы плохо.

Ограничения и сложный выбор

Смягчение угрозы требует трудных компромиссов. Ограничение распространения генеративных инструментов может замедлить полезное использование — в медицине, моделировании климата и логистике — в то время как свободный доступ увеличивает поверхность для злоупотреблений. На международном уровне некоторые страны и десятки штатов США приняли или предложили законы об ограничении определенных видов дипфейков; федеральное правительство также предприняло шаги, например, запретив автоматические звонки, созданные ИИ, которые имитируют голоса государственных чиновников. Однако юридически обязывающие глобальные соглашения об автономном оружии и использовании ИИ негосударственными субъектами по-прежнему труднодостижимы по политическим причинам.

Эксперты, изучающие военный ИИ, предупреждают, что «серебряной пули» не существует. Пол Шарр из Центра за новую американскую безопасность отмечает, что войны ускоряют инновации; чем дольше длятся интенсивные конфликты, тем быстрее распространяются опасные методы. Специалисты по кибербезопасности подчеркивают, что небольшие, доступные улучшения в области обнаружения и дизайна платформ — в сочетании с повышением грамотности пользователей и устойчивостью институтов — могут отразить многие атаки. Тем не менее, как сказал репортерам один генеральный директор компании по кибербезопасности: «Для любого противника ИИ действительно значительно упрощает задачу».

За чем следить дальше

В ближайший год можно ожидать три заметные тенденции: учащение публичных примеров пропаганды и мошенничества с применением ИИ; усиление давления законодателей на разработчиков с требованием прозрачности и обязательной отчетности о злоупотреблениях; а также расширение рынка инструментов обнаружения, ориентированных на платформы и правительства. Ведомства также будут все чаще указывать на пересечение ИИ с биологическими рисками, держа эту тему под контролем по мере развития инструментов моделирования и синтеза.

Для специалистов и общественности приоритеты носят практический характер: усиление мониторинга экстремистских каналов, создание надежных механизмов для сообщения разработчикам о злоупотреблениях без нарушения конфиденциальности пользователей и инвестиции в быстрые, объяснимые инструменты обнаружения, которые платформы могут развертывать в больших масштабах. Без этих шагов недорогой генеративный ИИ будет продолжать действовать как множитель силы для тех, кто уже нашел способы превратить информацию и технологии в оружие.

Источники

  • Министерство внутренней безопасности США (Оценка внутренних угроз)
  • SITE Intelligence Group (мониторинг экстремистской активности)
  • Центр за новую американскую безопасность (анализ ИИ и ведения войны)
  • Агентство национальной безопасности (исследования уязвимостей и публичные комментарии)
  • Слушания в Конгрессе США по экстремистским угрозам и ИИ
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Как экстремистские группировки используют ИИ сегодня?
A Группировки перепрофилируют общедоступные генеративные модели для создания реалистичных изображений и видеороликов в пропагандистских целях, генерируют дипфейк-аудиозаписи лидеров, переводят сообщения на множество языков в течение нескольких часов и проводят адресные кампании по дезинформации, направленные на манипуляцию алгоритмами соцсетей; некоторые используют синтезированные голоса для мошенничества, хотя большая часть их работы по-прежнему опирается на готовые инструменты и человеческую изобретательность.
Q Какие факторы способствуют росту угрозы?
A Три технические тенденции делают проблему асимметричной и ускоряющейся: генеративные модели стали общедоступными и простыми в использовании; модели можно объединять в цепочки — текстовый контент сначала составляется, а затем иллюстрируется или переводится для новой аудитории; коммерциализированные вычисления и облачные сервисы автоматизируют повторяющиеся задачи, такие как сбор данных о целях фишинга и массовая рассылка сообщений.
Q Какие операционные риски вызывают беспокойство у официальных лиц?
A Аналитики в сфере безопасности опасаются, что ИИ может помочь негосударственным субъектам и террористам-одиночкам компенсировать нехватку технических навыков, в том числе при проведении кибератак и, что более тревожно, при разработке биологических или химических угроз; традиционные военные способы применения ИИ, такие как анализ спутниковых снимков, системы наведения дронов и оптимизация логистики, могут быть изучены и имитированы военизированными группировками на более примитивном уровне.
Q Какие меры политического реагирования предпринимаются?
A Законодатели призывают к ускоренному обмену информацией между коммерческими разработчиками ИИ и государственными органами для выявления злоупотреблений и сотрудничества в области их обнаружения; разрабатываются законы для ежегодной оценки рисков, связанных с использованием ИИ экстремистскими группами; ускоряется отраслевое сотрудничество в области «ред-тиминга» и отчетности о злоупотреблениях; разрабатываются методы подтверждения происхождения контента и водяные знаки, классификаторы обнаружения и механизмы платформ для ограничения скорости или блокировки подозрительных автоматизированных аккаунтов; эти усилия сопровождаются обеспокоенностью по поводу соблюдения гражданских свобод.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!