Punkt zwrotny w kampaniach politycznych
W tym tygodniu (5 grudnia 2025 r.) w czasopismach naukowych i serwisach technologicznych pojawiły się dwa obszerne, recenzowane badania oraz seria analiz uzupełniających z tym samym niepokojącym komunikatem: krótkie rozmowy z chatbotami AI mogą wpływać na wyborców. Prace — opublikowane w Nature i Science, a prowadzone przez zespoły badaczy m.in. z Cornell i MIT — donoszą, że pojedynczy krótki dialog ze stronniczym chatbotem zmieniał opinię publiczną w stopniu przekraczającym typowe efekty telewizyjnych lub cyfrowych reklam politycznych. W niektórych warunkach eksperymentalnych modele zoptymalizowane pod kątem perswazji zmieniały postawy o dwadzieścia cztery punkty procentowe lub więcej; w rzeczywistych sondażach mediana przesunięć wynosiła kilka punktów, czasami dochodząc do dziesięciu.
Te wielkości mają znaczenie, ponieważ współczesne wybory rozstrzygają się niewielką różnicą głosów. Mają znaczenie, ponieważ modele, które najbardziej zmieniały opinie, były również tymi, które wielokrotnie generowały najbardziej nieścisłe twierdzenia. I mają znaczenie, ponieważ technologia mogąca zautomatyzować indywidualne kampanie perswazyjne już istnieje: tanie zasoby obliczeniowe, modele o otwartych wagach, synteza głosu i obrazu wideo oraz kanały dystrybucji w popularnych aplikacjach i prywatnych komunikatorach. Krótko mówiąc, badacze twierdzą, że era, w której AI może systematycznie przekonywać wyborców na masową skalę, już nadeszła — a my dopiero zaczynamy uświadamiać sobie, co to oznacza.
Nowe eksperymenty, wyraźne wzorce
Dwa flagowe badania wykorzystywały różne metodologie, ale przyniosły zbieżne wzorce. W jednym z nich badacze przeprowadzili kontrolowane rozmowy z ponad 2300 uczestnikami z USA na dwa miesiące przed wyborami prezydenckimi w 2024 roku. Chatboty wyraźnie dostosowane do promowania jednego z głównych kandydatów skłoniły niektórych wyborców do przesunięcia poparcia o kilka punktów w stronę preferowanego kandydata; w testach w USA uczestnicy skłaniający się ku Trumpowi przesunęli się o około 3,9 punktu w stronę bota wspierającego Harris, podczas gdy ruch w drugą stronę wyniósł około 2,3 punktu. W innych testach krajowych — w Kanadzie i Polsce — efekty były większe, a u niektórych wyborców opozycji odnotowano przesunięcie o około 10 punktów.
Uzupełniająca, znacznie większa analiza przetestowała 19 modeli językowych z udziałem blisko 77 000 uczestników z Wielkiej Brytanii w setkach zapytań dotyczących kwestii wyborczych. Najbardziej agresywny proces perswazyjny — poinstruowanie modelu, by gromadził fakty, a następnie dostrojenie go na dialogach perswazyjnych — przyniósł największe zmiany postaw. Jeden z prototypów zoptymalizowanych pod kątem perswazji wywołał w warunkach laboratoryjnych przesunięcia rzędu 25 punktów w 100-punktowej skali zgody, co byłoby efektem nadzwyczajnym, gdyby udało się go powtórzyć na skalę całej populacji.
Jak AI stosuje perswazję — i dlaczego może kłamać
Badania identyfikują mechanizm techniczny stojący za tym efektem: personalizację konwersacyjną połączoną z zagęszczeniem argumentacji. W przeciwieństwie do reklamy, która operuje kilkusekundowymi obrazami i sloganami, chatbot może odczytać tok rozumowania użytkownika, rozbić jego obiekcje na części pierwsze i dostarczyć ukierunkowane kontrargumenty — często cytując fakty lub statystyki. Ta interaktywna argumentacja w czasie rzeczywistym przypomina działania wykwalifikowanego agitatora lub debalisty, co pomaga wyjaśnić, dlaczego boty te mogą osiągać lepsze wyniki niż statyczne reklamy w kontrolowanych warunkach.
Istnieje jednak pewien kompromis. Zespoły badawcze konsekwentnie obserwowały, że zdolność do przekonywania korelowała ze spadkiem rzetelności faktograficznej. Gdy modele były zmuszane do bycia bardziej przekonującymi, częściej zaczynały przywoływać dowody niższej jakości i jawne zmyślenia. Jedna z prawdopodobnych interpretacji technicznych mówi, że modele wyczerpują wysokiej jakości, dobrze udokumentowane dowody, a następnie sięgają po materiały słabsze lub bardziej spekulatywne; inna sugeruje, że optymalizacja pod kątem perswazji faworyzuje płynność retoryczną nad wiernością faktom. Tak czy inaczej, efektem jest klasa narzędzi, których najsilniejsze argumenty są jednocześnie tymi, które najprawdopodobniej wprowadzają w błąd.
Asymetrie i ograniczenia w świecie rzeczywistym
Ważne zastrzeżenia studzą entuzjazm płynący z nagłówkowych liczb. Eksperymenty były zazwyczaj prowadzone w skoncentrowanych, sterowanych warunkach, w których wolontariusze spędzali kilka minut na skupionym dialogu politycznym z botem — a nie w chaotycznej ekonomii uwagi pełnej kanałów informacyjnych, grup znajomych i ulotnych kliknięć. Badacze i komentatorzy zwracają uwagę, że efekty laboratoryjne mogą wyolbrzymiać to, co wydarzy się, gdy ludzie będą przypadkowo stykać się z AI w codziennym życiu.
Mimo to badania ujawniają dwa asymetryczne zagrożenia. Po pierwsze, dostęp i wdrażanie są nierównomierne. Sztaby wyborcze, zamożni aktorzy i obce państwa prawdopodobnie wcześniej zyskają dostęp do najbardziej przekonujących łańcuchów narzędziowych, co może stworzyć nieuczciwą przewagę. Po drugie, uprzedzenia modeli mogą odzwierciedlać partyjne środowiska informacyjne: w opublikowanych zbiorach danych zespoły odkryły, że boty promujące prawicowe stanowiska generowały więcej nieścisłości, prawdopodobnie dlatego, że same zbiory treningowe zawierają asymetryczną dezinformację.
Ekonomia i skala: jak tania może stać się perswazja?
Jednym z bardziej alarmujących wyliczeń w niedawnych komentarzach politycznych jest koszt skalowania działań. Korzystając z publicznych cen API i ostrożnych założeń (dotyczących długości rozmów i kosztów tokenów), analitycy wykazali, że dany podmiot mógłby dotrzeć do dziesiątek milionów wyborców ze spersonalizowaną wymianą czatową za kwotę poniżej miliona dolarów. Te wyliczenia są z konieczności przybliżone — ceny modeli, przepustowość, synteza głosu i kanały dostarczania zwiększają złożoność — ale jasno pokazują, że zautomatyzowana perswazja indywidualna znajduje się już w zasięgu budżetu dobrze finansowanych kampanii, komitetów PAC czy operacji zagranicznego wpływu.
Reakcje polityczne: mozaika i luki
Podejścia regulacyjne są niejednolite. Akt o sztucznej inteligencji Unii Europejskiej (AI Act) wyraźnie traktuje perswazję związaną z wyborami jako zastosowanie wysokiego ryzyka i nakłada obowiązki na systemy zaprojektowane w celu wpływania na zachowania wyborcze. Dla kontrastu, polityka federalna USA pozostaje rozproszona: przepisy o prywatności, ujawnianie informacji w mediach oraz garść praw stanowych skupiają się na deepfake'ach lub przejrzystości reklam, ale nie obejmują kompleksowo perswazji konwersacyjnej na platformach i w kanałach offline. Ciężar egzekwowania przepisów w USA spadł w dużej mierze na prywatne platformy; firmy te mają różne polityki i bodźce, a narzędzia poza-platformowe lub otwartoźródłowe pozostają poza ich zasięgiem.
Badacze i analitycy polityczni proponują obecnie wielowarstwową reakcję: (1) standardy techniczne i możliwe do zweryfikowania pochodzenie komunikatów politycznych; (2) ograniczenia lub ścisłą kontrolę nad udostępnianiem masowych zasobów obliczeniowych, które mogą być użyte do prowadzenia dużych kampanii perswazyjnych; (3) wymogi ujawniania informacji dla systemów zaprojektowanych w celu wpływania na poglądy polityczne; oraz (4) koordynację międzynarodową — ponieważ kampanie transgraniczne mogą być prowadzone z jurysdykcji o słabym nadzorze.
Debata: alarmizm kontra niuanse
Badacze, którzy przeprowadzili eksperymenty z perswazją, odpowiadają, że oba punkty widzenia są ze sobą spójne: technologia jest ewidentnie przekonująca w ściśle kontrolowanych interakcjach i dlatego wymaga pilnej uwagi; jednocześnie rzeczywistość ukształtuje sposób, w jaki technologie te będą faktycznie używane, a interwencje są możliwe. Wyzwaniem dla polityki jest zwiększenie kosztów i trudności prowadzenia niejawnej perswazji na dużą skalę przy jednoczesnym umożliwieniu korzystnych zastosowań: chatbotów kandydatów wyjaśniających program, asystentów obywatelskich streszczających kwestie referendalne czy narzędzi dziennikarskich zwiększających dostęp do informacji.
Co kampanie, platformy i regulatorzy mogą zrobić teraz
- Wymagać potwierdzania pochodzenia i ujawniania informacji w przypadku komunikatów politycznych, w tym agentów konwersacyjnych zajmujących się tematami obywatelskimi.
- Nakazać niezależne audyty modeli i egzekwowanie zasad platform dotyczących automatyzacji ukierunkowanej politycznie.
- Ograniczyć pozarynkowy dostęp do największych stosów obliczeniowych o skali wnioskowania, gdy są one wykorzystywane do prowadzenia politycznych kampanii perswazyjnych, wraz z wprowadzeniem przejrzystości na rynkach dzierżawy GPU.
- Finansować monitoring interesu publicznego i otwarte zbiory danych, aby niezależni badacze mogli replikować i oceniać twierdzenia dotyczące perswazji.
- Rozszerzać edukację cyfrową i publiczne kanały informacyjne, które pomagają wyborcom sprawdzać twierdzenia i weryfikować fakty pochodzące z AI.
W jakim kierunku powinny iść dalsze badania
Polityką powinny kierować dwa priorytety badawcze: po pierwsze, replikowane eksperymenty terenowe mierzące efekty w naturalnych warunkach (nie tylko w skoncentrowanych dialogach laboratoryjnych); po drugie, systemy pomiaru i monitoringu wykrywające skoordynowane kampanie perswazyjne w różnych formach i na różnych platformach. Bez lepszego, podlegającego audytowi dostępu do danych — bibliotek reklam, logów platform i pochodzenia modeli — decydenci będą tworzyć zasady z jedną ręką związaną za plecami.
Niedawne badania są sygnałem alarmowym, który nie jest ani zapowiedzią apokalipsy, ani panaceum. Systemy AI już teraz mogą wpływać na opinie w potężny sposób, robiąc to taniej i elastyczniej niż wcześniejsze narzędzia cyfrowej perswazji. Jednocześnie wyniki zależą od ludzkich wyborów — tego, jacy aktorzy wdrożą narzędzia, jak modele zostaną dostrojone, jakie zasady i standardy będą rządzić ich użyciem oraz czy społeczeństwo obywatelskie zdoła zbudować infrastrukturę monitoringu potrzebną do wykrywania nadużyć. Kluczowym pytaniem dla demokracji jest to, czy instytucje zadziałają teraz, by kształtować te wybory, czy też następne wybory staną się laboratorium, w którym odpowiedź zostanie zapisana głosami i zwątpieniem.
Źródła
- Nature (praca badawcza na temat perswazji chatbotów)
- Science (praca badawcza na temat LLM zoptymalizowanych pod kątem perswazji)
- Cornell University (zespoły eksperymentalne badające AI i perswazję)
- Massachusetts Institute of Technology (David Rand i współpracownicy)
- Knight First Amendment Institute (analiza: „Don't Panic (Yet)”)
Comments
No comments yet. Be the first!