Jak sieci ekstremistyczne włączają SI do swojego arsenału
15 grudnia 2025 r. raporty Associated Press i PBS zwróciły uwagę na nowy front rozprzestrzeniania się sztucznej inteligencji: luźno powiązane sieci bojowników i ekstremistów, które testują modele generatywne w celu usprawnienia rekrutacji, tworzenia obrazów i nagrań audio typu deepfake, automatyzacji tłumaczeń oraz intensyfikacji operacji cybernetycznych. Przekazy są dosadne i praktyczne — użytkownik popierający Państwo Islamskie powiedział niedawno zwolennikom w języku angielskim, że „jedną z najlepszych rzeczy w SI jest to, jak łatwa jest w użyciu” i wezwał ich do włączenia tej technologii do swoich działań. Ta internetowa zachęta oddaje podstawową logikę budzącą niepokój wśród urzędników odpowiedzialnych za bezpieczeństwo: tania, potężna SI obniża próg szkodliwych działań.
Jak bojownicy wykorzystują dziś SI
Badacze i firmy monitorujące informują o kilku powtarzających się zastosowaniach. Grupy te przystosowały publiczne modele generatywne do tworzenia realistycznych zdjęć i filmów, które mogą być udostępniane na platformach społecznościowych; tworzyły nagrania audio liderów typu deepfake i wykorzystywały SI do tłumaczenia wiadomości na wiele języków w ciągu zaledwie kilku godzin; zaczęły również prowadzić ukierunkowane kampanie dezinformacyjne zaprojektowane tak, aby karmić algorytmy społecznościowe. SITE Intelligence Group udokumentowała przykłady obejmujące zmanipulowane obrazy krążące wokół wojny Izraela z Hamasem oraz propagandę stworzoną przez SI po krwawym ataku na salę koncertową w Rosji. W innych przypadkach napastnicy wykorzystywali syntetyczny dźwięk do podszywania się pod urzędników w operacjach oszustw i phishingu.
Takie taktyki to nie tylko technologiczne cuda: duża część pracy opiera się na gotowych narzędziach i ludzkiej kreatywności. Jednak w połączeniu ze wzmocnieniem w mediach społecznościowych mogą one zmieniać narracje, siać strach i rekrutować sympatyków daleko poza zasięgiem małej organizacji. Jak ujął to były badacz podatności w NSA, obecnie dyrektor w branży technologicznej: „Dzięki SI nawet mała grupa, która nie dysponuje dużymi pieniędzmi, jest w stanie wywrzeć wpływ”.
Dlaczego zagrożenie rośnie
Trzy trendy techniczne sprawiają, że problem jest asymetryczny i przybiera na sile. Po pierwsze, modele generatywne — tekstowe, graficzne i głosowe — stały się powszechnie dostępne i łatwe w obsłudze bez specjalistycznego szkolenia. Po drugie, modele można łączyć: model językowy może przygotować projekt propagandy, który następnie zilustruje model graficzny, podczas gdy narzędzia tłumaczeniowe zlokalizują treść dla nowych odbiorców. Po trzecie, skomercjalizowana moc obliczeniowa i usługi chmurowe pozwalają aktorom na automatyzację powtarzalnych zadań, od scrapingu list celów do phishingu po syntezę tysięcy spersonalizowanych wiadomości.
To połączenie ma znaczenie, ponieważ zamienia skalę na wpływ. Platformy społecznościowe zaprojektowane tak, aby nagradzać zaangażowanie, chętnie wzmacniają sugestywne treści, którymi łatwo się dzielić; przekonujący deepfake lub podżegający, przetłumaczony post mogą rozprzestrzeniać się błyskawicznie, zwiększając polaryzację lub prowadząc rekrutację w miejscach, które w ubiegłych dekadach byłyby niedostępne.
Od propagandy online do narzędzi pola walki
Analitycy bezpieczeństwa obawiają się również zastosowań operacyjnych wykraczających poza propagandę. Ostatnia ocena zagrożeń przeprowadzona przez Departament Bezpieczeństwa Krajowego (DHS) wyraźnie wskazała na ryzyko, że SI może pomóc podmiotom niepaństwowym i samotnym napastnikom zrekompensować braki techniczne — w tym pomóc w cyberatakach oraz, co bardziej niepokojące, w inżynierii zagrożeń biologicznych lub chemicznych. Chociaż te scenariusze są trudniejsze i bardziej zasobochłonne, DHS i inne agencje twierdzą, że nie można ich wykluczyć w miarę wzrostu możliwości modeli i zbiorów danych oraz łatwiejszego dostępu do laboratoriów i narzędzi.
Tymczasem konwencjonalne militarne zastosowania SI — takie jak automatyczna analiza zdjęć satelitarnych, systemy wspomagania celowania dla dronów i optymalizacja logistyki — dostarczają modeli i możliwości, które grupy bojowników mogą obserwować i naśladować z mniejszą precyzją. Wojna na Ukrainie stała się poligonem doświadczalnym dla wielu z tych technik: armie wykorzystują SI do przesiewania ogromnych ilości zdjęć i filmów w celu znalezienia celów i zarządzania łańcuchami dostaw, a ten sam wzorzec szybkiej innowacji może inspirować lub przenikać do sił nieregularnych i pełnomocników.
Konkretne ryzyka i niedawne przykłady
- Rekrutacja na dużą skalę: narzędzia SI pomagają tworzyć wielojęzyczną, dopasowaną emocjonalnie propagandę, którą rekruterzy mogą kierować do przychylnych odbiorców.
- Deepfake i manipulacja: sfabrykowane obrazy i nagrania audio zostały już wykorzystane do zaogniania konfliktów, podważania zaufania i podszywania się pod liderów w celu wymuszeń lub wywołania reakcji w świecie rzeczywistym.
- Operacje cybernetyczne: napastnicy wykorzystują SI do przygotowywania zaawansowanych wiadomości phishingowych, pisania kodów exploitów i automatyzacji zadań w ramach kampanii infiltracyjnych.
Analitycy wskazują na niedawne incydenty, w których syntetyczne obrazy krążyły po głośnych atakach, oraz na udokumentowane sesje szkoleniowe, które niektóre grupy prowadziły dla zwolenników na temat korzystania z SI do produkcji treści. Ustawodawcy zeznali, że filie zarówno Państwa Islamskiego, jak i Al-Kaidy organizowały warsztaty, aby uczyć zwolenników korzystania z narzędzi generatywnych.
Co rekomendują urzędnicy i eksperci
Odpowiedź polityczna rozwija się na wielu torach. W Waszyngtonie ustawodawcy wezwali do szybszej wymiany informacji między komercyjnymi deweloperami SI a agencjami rządowymi, aby firmy mogły sygnalizować nadużycia i współpracować przy ich wykrywaniu. Senator Mark Warner, lider Demokratów w Senackiej Komisji ds. Wywiadu, powiedział, że publiczny debiut przyjaznych dla użytkownika modeli jasno pokazał, że generatywna SI przyciągnie szerokie grono złonamierych aktorów. Izba Reprezentantów USA przyjęła ustawę wymagającą od urzędników bezpieczeństwa krajowego corocznej oceny ryzyka związanego z SI ze strony grup ekstremistycznych. Członkowie obu partii polecili agencjom przyspieszenie współpracy z przemysłem w zakresie red-teamingu i ścieżek zgłaszania nadużyć.
Podejmowane są również środki techniczne. Firmy i badacze pracują nad systemami sprawdzania pochodzenia i znakowania wodnego dla generowanych mediów, klasyfikatorami wykrywającymi syntetyczne treści oraz metodami egzekwowania zasad na platformach, które ograniczają lub blokują podejrzane zautomatyzowane konta. Jednocześnie obrońcy swobód obywatelskich ostrzegają przed nadmiernie szerokim nadzorem i ryzykiem cenzurowania legalnych wypowiedzi, jeśli systemy wykrywania zostaną źle zaprojektowane.
Ograniczenia i trudne wybory
Łagodzenie zagrożenia wymaga trudnych kompromisów. Ograniczenie rozprzestrzeniania się narzędzi generatywnych mogłoby spowolnić korzystne zastosowania — w medycynie, modelowaniu klimatu i logistyce — podczas gdy umożliwienie swobodnego dostępu zwiększa pole do nadużyć. Na szczeblu międzynarodowym niektóre kraje i dziesiątki stanów USA uchwaliły lub zaproponowały przepisy ograniczające niektóre rodzaje deepfake'ów; rząd federalny podjął również kroki, na przykład zakazując generowanych przez SI robocalli podszywających się pod urzędników państwowych. Jednak wiążące globalne porozumienia w sprawie broni autonomicznej i wykorzystania SI przez podmioty niepaństwowe pozostają trudne pod względem politycznym.
Eksperci badający wojskowe zastosowania SI ostrzegają, że nie ma jednego, idealnego rozwiązania. Paul Scharre z Center for a New American Security zauważa, że wojny przyspieszają innowacje; im dłużej trwają intensywne konflikty, tym szybciej rozprzestrzeniają się niebezpieczne techniki. Specjaliści ds. cyberbezpieczeństwa podkreślają, że niewielkie, niedrogie ulepszenia w wykrywaniu i projektowaniu platform — w połączeniu z lepszą edukacją użytkowników i odpornymi instytucjami — mogą stępić wiele ataków. Mimo to, jak powiedział reporterom jeden z dyrektorów generalnych ds. cyberbezpieczeństwa: „Dla każdego przeciwnika SI naprawdę znacznie ułatwia działanie”.
Na co zwrócić uwagę w przyszłości
W nadchodzącym roku należy spodziewać się trzech mierzalnych trendów: częstszych publicznych przykładów propagandy i oszustw wspieranych przez SI; wzrostu presji ustawodawców na przejrzystość deweloperów i obowiązkowe zgłaszanie nadużyć; oraz rozwijającego się rynku narzędzi wykrywających skierowanych do platform i rządów. Agencje będą również coraz częściej sygnalizować związek SI z ryzykiem biologicznym, monitorując ten temat w miarę ewolucji narzędzi do modelowania i syntezy.
Dla praktyków i opinii publicznej bezpośrednie priorytety są praktyczne: wzmocnienie monitoringu kanałów ekstremistycznych, budowa solidnych mechanizmów zgłaszania nadużyć przez deweloperów bez naruszania prywatności użytkowników oraz inwestowanie w szybkie, możliwe do objaśnienia narzędzia wykrywania, które platformy mogą wdrażać na dużą skalę. Bez tych kroków niedroga generatywna SI będzie nadal służyć jako mnożnik siły dla aktorów, którzy już wcześniej znaleźli sposoby na wykorzystanie informacji i technologii jako broni.
Źródła
- Departament Bezpieczeństwa Krajowego (Homeland Threat Assessment)
- SITE Intelligence Group (monitorowanie aktywności ekstremistów)
- Center for a New American Security (analiza SI i prowadzenia działań wojennych)
- National Security Agency (badania podatności i komentarze publiczne)
- Przesłuchania w Kongresie USA na temat zagrożeń ekstremistycznych i SI
Comments
No comments yet. Be the first!