Como as redes extremistas estão tornando a IA parte de seu kit de ferramentas
Em 15 de dezembro de 2025, reportagens da Associated Press e da PBS destacaram uma nova frente na proliferação da inteligência artificial: redes militantes e extremistas pouco estruturadas que estão testando modelos generativos para ampliar o recrutamento, produzir imagens e áudios de deepfake, automatizar traduções e aprimorar operações cibernéticas. As mensagens são diretas e práticas — um usuário pró-Estado Islâmico disse recentemente a apoiadores em inglês que "uma das melhores coisas sobre a IA é como ela é fácil de usar" e os instou a tornar a tecnologia parte de suas operações. Essa exortação online captura a lógica básica que impulsiona a preocupação entre as autoridades de segurança: uma IA barata e poderosa reduz a barreira para o impacto malicioso.
Como os militantes estão usando a IA hoje
Pesquisadores e empresas de monitoramento relatam vários usos recorrentes. Grupos reaproveitaram modelos generativos públicos para criar fotos e vídeos realistas que podem ser compartilhados em plataformas sociais; produziram áudios de deepfake de líderes e usaram IA para traduzir mensagens para vários idiomas em poucas horas; e começaram a executar campanhas de desinformação direcionadas, moldadas para alimentar algoritmos sociais. O SITE Intelligence Group documentou exemplos, incluindo imagens manipuladas que circularam em torno da guerra Israel-Hamas e propaganda criada por IA após um ataque mortal a um concerto na Rússia. Em outros casos, atacantes usaram áudio sintético para se passar por autoridades em operações de fraude e phishing.
Essas táticas não são todas milagres de alta tecnologia: grande parte do trabalho depende de ferramentas comerciais e criatividade humana. Mas, combinadas com a amplificação das redes sociais, elas podem mudar narrativas, espalhar o medo e recrutar simpatizantes muito além do alcance de uma pequena organização. Como disse um ex-pesquisador de vulnerabilidades da NSA que se tornou executivo do setor: "Com a IA, mesmo um grupo pequeno que não tem muito dinheiro ainda é capaz de causar um impacto".
Por que a ameaça está crescendo
Três tendências técnicas tornam o problema assimétrico e acelerado. Primeiro, os modelos generativos — de texto, imagem e voz — tornaram-se amplamente disponíveis e fáceis de operar sem treinamento especializado. Segundo, os modelos podem ser encadeados: um modelo de linguagem pode redigir propaganda que um modelo de imagem ilustra, enquanto ferramentas de tradução localizam o conteúdo para novos públicos. Terceiro, a computação comoditizada e os serviços em nuvem permitem que os atores automatizem tarefas repetitivas, desde a coleta (scraping) de listas de alvos para phishing até a síntese de milhares de mensagens personalizadas.
Essa combinação é importante porque converte escala em influência. Plataformas sociais projetadas para recompensar o engajamento amplificarão alegremente conteúdos vívidos e compartilháveis; um deepfake convincente ou uma postagem traduzida incendiária pode viajar rapidamente, aumentando a polarização ou recrutando em lugares que, em décadas passadas, seriam inacessíveis.
De propaganda online a ferramentas de campo de batalha
Analistas de segurança também se preocupam com aplicações operacionais além da propaganda. A avaliação de ameaças mais recente do Departamento de Segurança Interna (DHS) sinalizou explicitamente o risco de que a IA possa ajudar atores não estatais e atacantes solitários a compensar deficiências técnicas — incluindo assistência em ataques cibernéticos e, de forma mais alarmante, na engenharia de ameaças biológicas ou químicas. Embora esses cenários sejam mais difíceis e exijam mais recursos, o DHS e outras agências dizem que não podem ser descartados à medida que os modelos e conjuntos de dados crescem em capacidade e que laboratórios e ferramentas se tornam mais fáceis de acessar.
Enquanto isso, os usos militares convencionais da IA — como análise automatizada de imagens de satélite, auxílios de segmentação de alvos para drones e otimização logística — fornecem modelos e capacidades que grupos militantes podem observar e imitar com menor fidelidade. A guerra na Ucrânia tem sido um campo de provas para muitas dessas técnicas: as forças armadas usam a IA para filtrar grandes volumes de imagens e vídeos para encontrar alvos e gerenciar cadeias de suprimentos, e esse mesmo padrão de inovação rápida pode inspirar ou vazar para forças irregulares e atores por procuração.
Riscos concretos e exemplos recentes
- Recrutamento em escala: ferramentas de IA ajudam a produzir propaganda multilíngue e emocionalmente adaptada que os recrutadores podem direcionar a públicos simpáticos.
- Deepfakes e decepção: imagens e áudios fabricados já foram usados para inflamar conflitos, corroer a confiança e personificar líderes para extorsão ou para desencadear respostas no mundo real.
- Operações cibernéticas: atacantes usam IA para redigir mensagens de phishing sofisticadas, escrever códigos de exploração e automatizar tarefas dentro de uma campanha de intrusão.
Analistas apontam para episódios recentes em que imagens sintéticas circularam após ataques de alto perfil, e para sessões de treinamento documentadas que alguns grupos realizaram para apoiadores sobre como usar a IA para a produção de conteúdo. Parlamentares testemunharam que afiliados tanto do Estado Islâmico quanto da al-Qaeda realizaram workshops para ensinar apoiadores a usar ferramentas generativas.
O que autoridades e especialistas recomendam
A resposta política está se desenrolando em várias frentes. Em Washington, os legisladores instaram uma partilha de informações mais rápida entre os desenvolvedores comerciais de IA e as agências governamentais, para que as empresas possam sinalizar o uso indevido e colaborar na detecção. O senador Mark Warner, o democrata de maior ranking no Comitê de Inteligência do Senado, disse que a estreia pública de modelos fáceis de usar deixou claro que a IA generativa atrairia uma ampla gama de atores malignos. A Câmara dos Representantes dos EUA aprovou uma legislação que exige que as autoridades de segurança interna avaliem anualmente os riscos de IA de grupos extremistas. Membros de ambos os partidos orientaram as agências a acelerar a colaboração com a indústria em caminhos de red-teaming e denúncia de abusos.
Medidas técnicas também estão sendo buscadas. Empresas e pesquisadores estão trabalhando em sistemas de procedência e marca d'água para mídias geradas, classificadores que detectam conteúdo sintético e abordagens de fiscalização de plataformas que limitam a taxa ou bloqueiam contas automatizadas suspeitas. Ao mesmo tempo, defensores das liberdades civis alertam sobre a vigilância excessiva e o risco de censurar discursos legítimos se os sistemas de detecção forem mal projetados.
Limites e escolhas difíceis
Mitigar a ameaça exige concessões difíceis. Restringir a disseminação de ferramentas generativas poderia retardar usos benéficos — na medicina, na modelagem climática e na logística — enquanto permitir o acesso livre aumenta a superfície de uso indevido. Internacionalmente, alguns países e dezenas de estados dos EUA aprovaram ou propuseram leis para limitar certos tipos de deepfakes; o governo federal também tomou medidas, por exemplo, proibindo robocalls gerados por IA que se passam por autoridades públicas. Mas acordos globais vinculantes sobre armas autônomas e o uso de IA por atores não estatais continuam sendo politicamente difíceis.
Especialistas que estudam IA militar alertam que não existe uma solução milagrosa. Paul Scharre, do Center for a New American Security, observa que as guerras aceleram a inovação; quanto mais tempo os conflitos intensos continuarem, mais rápido as técnicas perigosas se espalharão. Profissionais de segurança cibernética enfatizam que melhorias pequenas e acessíveis na detecção e no design de plataformas — combinadas com uma melhor alfabetização dos usuários e instituições resilientes — podem atenuar muitos ataques. No entanto, como disse o CEO de uma empresa de segurança cibernética aos repórteres: "Para qualquer adversário, a IA realmente torna as coisas muito mais fáceis".
O que observar a seguir
Espera-se ver três tendências mensuráveis ao longo do próximo ano: exemplos públicos mais frequentes de propaganda e fraude habilitadas por IA; um aumento na pressão de legisladores por transparência dos desenvolvedores e relatórios de abuso obrigatórios; e um mercado em expansão de ferramentas de detecção voltadas para plataformas e governos. As agências também sinalizarão cada vez mais a interseção da IA com o risco biológico, mantendo esse tópico sob revisão à medida que as ferramentas de modelagem e síntese evoluem.
Para profissionais e para o público, as prioridades imediatas são práticas: reforçar o monitoramento de canais extremistas, construir mecanismos robustos para que os desenvolvedores relatem abusos sem violar a privacidade do usuário e investir em ferramentas de detecção rápidas e explicáveis que as plataformas possam implantar em escala. Sem essas etapas, a IA generativa de baixo custo continuará a atuar como um multiplicador de força para atores que já encontraram maneiras de transformar a informação e a tecnologia em armas.
Fontes
- Department of Homeland Security (Avaliação de Ameaça à Segurança Interna)
- SITE Intelligence Group (monitoramento de atividade extremista)
- Center for a New American Security (análise sobre IA e guerra)
- National Security Agency (pesquisa de vulnerabilidade e comentários públicos)
- Audiências do Congresso dos EUA sobre ameaças extremistas e IA
Comments
No comments yet. Be the first!