Grupos militantes adoptan herramientas de IA

IA
Militant Groups Embrace AI Tools
Funcionarios de seguridad nacional afirman que afiliados del Estado Islámico y otros grupos extremistas están experimentando con IA generativa para propaganda, ciberataques y traducción; una amenaza que podría intensificarse a medida que estas potentes herramientas se abaratan y masifican. Expertos y legisladores instan a agilizar el intercambio de información, mejorar la detección y establecer normas internacionales para mitigar los riesgos derivados.

Cómo las redes extremistas están integrando la IA en su arsenal

El 15 de diciembre de 2025, informes de Associated Press y PBS destacaron un nuevo frente en la proliferación de la inteligencia artificial: redes militantes y extremistas con vínculos informales que están probando modelos generativos para ampliar el reclutamiento, producir imágenes y audio deepfake, automatizar traducciones y perfeccionar sus operaciones cibernéticas. Los mensajes son directos y prácticos: un usuario partidario del Estado Islámico dijo recientemente a sus seguidores en inglés que "una de las mejores cosas de la IA es lo fácil que es usarla" y les instó a integrar la tecnología en sus operaciones. Esa exhortación en línea captura la lógica básica que impulsa la preocupación entre los funcionarios de seguridad: una IA potente y barata reduce la barrera para generar un impacto malicioso.

Cómo usan la IA los militantes hoy en día

Investigadores y firmas de monitoreo informan sobre varios usos recurrentes. Grupos han reutilizado modelos generativos públicos para crear fotos y videos realistas que pueden compartirse en plataformas sociales; han producido audio deepfake de líderes y han utilizado la IA para traducir mensajes a varios idiomas en cuestión de horas; y han comenzado a ejecutar campañas de desinformación dirigida diseñadas para alimentar los algoritmos sociales. SITE Intelligence Group documentó ejemplos que incluyen imágenes manipuladas que circularon en torno a la guerra entre Israel y Hamás y propaganda elaborada con IA tras un ataque mortal en un concierto en Rusia. En otros casos, los atacantes han utilizado audio sintético para suplantar a funcionarios en operaciones de fraude y phishing.

Estas tácticas no son del todo milagros de alta tecnología: gran parte del trabajo se basa en herramientas comerciales y en la creatividad humana. Pero combinadas con la amplificación en las redes sociales, pueden cambiar narrativas, sembrar el miedo y reclutar simpatizantes mucho más allá del alcance de una organización pequeña. Como dijo un antiguo investigador de vulnerabilidades de la NSA convertido en ejecutivo de la industria: "Con la IA, incluso un grupo pequeño que no tiene mucho dinero puede lograr un impacto".

Por qué crece la amenaza

Tres tendencias técnicas hacen que el problema sea asimétrico y acelerado. Primero, los modelos generativos (de texto, imagen y voz) se han vuelto ampliamente disponibles y fáciles de operar sin capacitación especializada. Segundo, los modelos pueden encadenarse: un modelo de lenguaje puede redactar propaganda que un modelo de imagen ilustra a continuación, mientras que las herramientas de traducción localizan el contenido para nuevas audiencias. Tercero, la computación mercantilizada y los servicios en la nube permiten a los actores automatizar tareas repetitivas, desde el scraping de listas de objetivos para phishing hasta la síntesis de miles de mensajes personalizados.

Esa combinación es importante porque convierte la escala en influencia. Las plataformas sociales diseñadas para recompensar la interacción amplificarán con gusto contenido vívido y fácil de compartir; un deepfake convincente o una publicación traducida incendiaria pueden viajar rápidamente, aumentando la polarización o reclutando en lugares que en décadas pasadas habrían sido inaccesibles.

De la propaganda en línea a las herramientas en el campo de batalla

Los analistas de seguridad también se preocupan por las aplicaciones operativas más allá de la propaganda. La evaluación de amenazas más reciente del Departamento de Seguridad Nacional (DHS) señaló explícitamente el riesgo de que la IA pueda ayudar a actores no estatales y atacantes solitarios a compensar deficiencias técnicas, incluyendo asistencia con ciberataques y, de manera más alarmante, con la ingeniería de amenazas biológicas o químicas. Si bien esos escenarios son más difíciles y requieren más recursos, el DHS y otras agencias dicen que no pueden descartarse a medida que los modelos y conjuntos de datos crecen en capacidad y los laboratorios y herramientas se vuelven más accesibles.

Mientras tanto, los usos militares convencionales de la IA —como el análisis automatizado de imágenes satelitales, las ayudas para la fijación de objetivos de drones y la optimización logística— proporcionan modelos y capacidades que los grupos militantes pueden observar e imitar a menor escala. La guerra en Ucrania ha sido un campo de pruebas para muchas de estas técnicas: los ejércitos utilizan la IA para cribar grandes volúmenes de imágenes y videos para encontrar objetivos y gestionar cadenas de suministro, y ese mismo patrón de innovación rápida puede inspirar o filtrarse hacia fuerzas irregulares y actores proxy.

Riesgos concretos y ejemplos recientes

  • Reclutamiento a escala: las herramientas de IA ayudan a producir propaganda multilingüe y adaptada emocionalmente que los reclutadores pueden dirigir a audiencias afines.
  • Deepfakes y engaño: se han utilizado imágenes y audios fabricados para inflamar conflictos, erosionar la confianza y suplantar a líderes para extorsión o para provocar respuestas en el mundo real.
  • Operaciones cibernéticas: los atacantes usan la IA para redactar mensajes de phishing sofisticados, escribir código de exploit y automatizar tareas dentro de una campaña de intrusión.

Los analistas señalan episodios recientes en los que circularon imágenes sintéticas tras ataques de alto perfil, y sesiones de capacitación documentadas que algunos grupos han impartido a sus seguidores sobre cómo usar la IA para la producción de contenidos. Legisladores testificaron que afiliados tanto del Estado Islámico como de Al Qaeda han realizado talleres para enseñar a sus seguidores a usar herramientas generativas.

Qué recomiendan los funcionarios y expertos

La respuesta política se está desarrollando en múltiples frentes. En Washington, los legisladores han instado a un intercambio de información más rápido entre los desarrolladores comerciales de IA y las agencias gubernamentales para que las empresas puedan señalar el uso indebido y colaborar en la detección. El senador Mark Warner, el demócrata de mayor rango en el Comité de Inteligencia del Senado, afirmó que el debut público de modelos fáciles de usar dejó claro que la IA generativa atraería a una amplia gama de actores malintencionados. La Cámara de Representantes de EE. UU. ha aprobado una legislación que exige a los funcionarios de seguridad nacional evaluar anualmente los riesgos de la IA provenientes de grupos extremistas. Miembros de ambos partidos han pedido a las agencias que aceleren la colaboración con la industria en red-teaming y vías de notificación de abusos.

También se están adoptando medidas técnicas. Las empresas y los investigadores trabajan en sistemas de procedencia y marcas de agua para medios generados, clasificadores que detectan contenido sintético y enfoques de cumplimiento en las plataformas que limitan la frecuencia o bloquean cuentas automatizadas sospechosas. Al mismo tiempo, los defensores de las libertades civiles advierten sobre la vigilancia excesiva y el riesgo de censurar el discurso legítimo si los sistemas de detección están mal diseñados.

Límites y elecciones difíciles

Mitigar la amenaza requiere compensaciones difíciles. Restringir la difusión de herramientas generativas podría frenar usos beneficiosos —en medicina, modelado climático y logística—, mientras que permitir el acceso libre aumenta la superficie de uso indebido. A nivel internacional, algunos países y docenas de estados de EE. UU. han aprobado o propuesto leyes para limitar ciertos tipos de deepfakes; el gobierno federal también ha tomado medidas, por ejemplo, prohibiendo las robocalls generadas por IA que suplantan a funcionarios públicos. Pero los acuerdos globales vinculantes sobre armas autónomas y el uso de la IA por parte de actores no estatales siguen siendo políticamente difíciles.

Expertos que estudian la IA militar advierten que no existe una solución mágica. Paul Scharre, del Center for a New American Security, señala que las guerras aceleran la innovación; cuanto más tiempo continúen los conflictos intensos, más rápido se propagan las técnicas peligrosas. Los profesionales de la ciberseguridad enfatizan que mejoras pequeñas y asequibles en la detección y el diseño de plataformas —combinadas con una mejor alfabetización de los usuarios e instituciones resilientes— pueden mitigar muchos ataques. Sin embargo, como dijo el CEO de una empresa de ciberseguridad a los periodistas: "Para cualquier adversario, la IA realmente facilita mucho las cosas".

Qué observar a continuación

Se espera ver tres tendencias medibles durante el próximo año: ejemplos públicos más frecuentes de propaganda y fraude habilitados por IA; un aumento de la presión de los legisladores para la transparencia de los desarrolladores y la notificación obligatoria de abusos; y un mercado en expansión de herramientas de detección dirigidas a plataformas y gobiernos. Las agencias también señalarán cada vez más la intersección de la IA con el riesgo biológico, manteniendo ese tema bajo revisión a medida que evolucionan las herramientas de modelado y síntesis.

Para los profesionales y el público, las prioridades inmediatas son prácticas: reforzar el monitoreo de los canales extremistas, construir mecanismos robustos para que los desarrolladores informen sobre abusos sin violar la privacidad del usuario e invertir en herramientas de detección rápidas y explicables que las plataformas puedan implementar a escala. Sin estos pasos, la IA generativa económica seguirá actuando como un multiplicador de fuerzas para actores que ya encontraron formas de convertir la información y la tecnología en armas.

Fuentes

  • Departamento de Seguridad Nacional (Evaluación de Amenazas a la Patria)
  • SITE Intelligence Group (monitoreo de actividad extremista)
  • Center for a New American Security (análisis sobre IA y guerra)
  • Agencia de Seguridad Nacional (investigación de vulnerabilidades y comentarios públicos)
  • Audiencias del Congreso de EE. UU. sobre amenazas extremistas e IA
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Cómo están utilizando la IA los grupos extremistas en la actualidad?
A Los grupos reutilizan modelos generativos públicos para producir imágenes y videos realistas con fines de propaganda, generan audio deepfake de líderes, traducen mensajes a múltiples idiomas en cuestión de horas y ejecutan campañas de desinformación dirigidas diseñadas para alimentar los algoritmos sociales; algunos explotan voces sintéticas para el fraude, aunque gran parte del trabajo depende de herramientas comerciales y de la creatividad humana.
Q ¿Qué factores están impulsando el crecimiento de la amenaza?
A Tres tendencias técnicas hacen que el problema sea asimétrico y se esté acelerando: los modelos generativos se han vuelto ampliamente disponibles y fáciles de operar; los modelos se pueden encadenar (redactando contenido lingüístico para luego ilustrarlo o traducirlo para nuevas audiencias); y los servicios de computación y nube mercantilizados automatizan tareas repetitivas como la recopilación de objetivos para phishing y el envío masivo de mensajes.
Q ¿Qué riesgos operativos preocupan a las autoridades?
A Los analistas de seguridad temen que la IA pueda ayudar a actores no estatales y atacantes solitarios a compensar deficiencias técnicas, incluidos los ciberataques y, de manera más alarmante, la ingeniería de amenazas biológicas o químicas; los usos militares convencionales de la IA, como el análisis de imágenes satelitales, las ayudas para la fijación de objetivos de drones y la optimización logística, podrían ser observados e imitados con menor fidelidad por grupos militantes.
Q ¿Qué respuestas políticas se están implementando?
A Los legisladores instan a un intercambio de información más rápido entre los desarrolladores comerciales de IA y las agencias gubernamentales para señalar el uso indebido y cooperar en la detección; legislación para evaluar anualmente los riesgos de la IA provenientes de grupos extremistas; aceleración de la colaboración de la industria en pruebas de penetración (red-teaming) e informes de abuso; desarrollo de sistemas de procedencia y marcas de agua, clasificadores de detección y aplicación de normas en plataformas para limitar la velocidad o bloquear cuentas automatizadas sospechosas; estas iniciativas van acompañadas de preocupaciones sobre las libertades civiles.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!