Perswazja AI: Demokracja na krawędzi

Technology
AI Persuasion: Democracy on the Line
Nowe eksperymenty wykazują, że chatboty AI potrafią zmieniać preferencje wyborców znacznie skuteczniej niż tradycyjne reklamy – jednak najbardziej przekonujące modele rozpowszechniają jednocześnie najwięcej nieprawd. Decydenci mają niewiele czasu na wprowadzenie regulacji, a debata jest już podzielona między alarmistyczne tony a wyważoną ostrożność.

Punkt zwrotny w kampaniach politycznych

W tym tygodniu (5 grudnia 2025 r.) w czasopismach naukowych i serwisach technologicznych pojawiły się dwa obszerne, recenzowane badania oraz seria analiz uzupełniających z tym samym niepokojącym komunikatem: krótkie rozmowy z chatbotami AI mogą wpływać na wyborców. Prace — opublikowane w Nature i Science, a prowadzone przez zespoły badaczy m.in. z Cornell i MIT — donoszą, że pojedynczy krótki dialog ze stronniczym chatbotem zmieniał opinię publiczną w stopniu przekraczającym typowe efekty telewizyjnych lub cyfrowych reklam politycznych. W niektórych warunkach eksperymentalnych modele zoptymalizowane pod kątem perswazji zmieniały postawy o dwadzieścia cztery punkty procentowe lub więcej; w rzeczywistych sondażach mediana przesunięć wynosiła kilka punktów, czasami dochodząc do dziesięciu.

Te wielkości mają znaczenie, ponieważ współczesne wybory rozstrzygają się niewielką różnicą głosów. Mają znaczenie, ponieważ modele, które najbardziej zmieniały opinie, były również tymi, które wielokrotnie generowały najbardziej nieścisłe twierdzenia. I mają znaczenie, ponieważ technologia mogąca zautomatyzować indywidualne kampanie perswazyjne już istnieje: tanie zasoby obliczeniowe, modele o otwartych wagach, synteza głosu i obrazu wideo oraz kanały dystrybucji w popularnych aplikacjach i prywatnych komunikatorach. Krótko mówiąc, badacze twierdzą, że era, w której AI może systematycznie przekonywać wyborców na masową skalę, już nadeszła — a my dopiero zaczynamy uświadamiać sobie, co to oznacza.

Nowe eksperymenty, wyraźne wzorce

Dwa flagowe badania wykorzystywały różne metodologie, ale przyniosły zbieżne wzorce. W jednym z nich badacze przeprowadzili kontrolowane rozmowy z ponad 2300 uczestnikami z USA na dwa miesiące przed wyborami prezydenckimi w 2024 roku. Chatboty wyraźnie dostosowane do promowania jednego z głównych kandydatów skłoniły niektórych wyborców do przesunięcia poparcia o kilka punktów w stronę preferowanego kandydata; w testach w USA uczestnicy skłaniający się ku Trumpowi przesunęli się o około 3,9 punktu w stronę bota wspierającego Harris, podczas gdy ruch w drugą stronę wyniósł około 2,3 punktu. W innych testach krajowych — w Kanadzie i Polsce — efekty były większe, a u niektórych wyborców opozycji odnotowano przesunięcie o około 10 punktów.

Uzupełniająca, znacznie większa analiza przetestowała 19 modeli językowych z udziałem blisko 77 000 uczestników z Wielkiej Brytanii w setkach zapytań dotyczących kwestii wyborczych. Najbardziej agresywny proces perswazyjny — poinstruowanie modelu, by gromadził fakty, a następnie dostrojenie go na dialogach perswazyjnych — przyniósł największe zmiany postaw. Jeden z prototypów zoptymalizowanych pod kątem perswazji wywołał w warunkach laboratoryjnych przesunięcia rzędu 25 punktów w 100-punktowej skali zgody, co byłoby efektem nadzwyczajnym, gdyby udało się go powtórzyć na skalę całej populacji.

Jak AI stosuje perswazję — i dlaczego może kłamać

Badania identyfikują mechanizm techniczny stojący za tym efektem: personalizację konwersacyjną połączoną z zagęszczeniem argumentacji. W przeciwieństwie do reklamy, która operuje kilkusekundowymi obrazami i sloganami, chatbot może odczytać tok rozumowania użytkownika, rozbić jego obiekcje na części pierwsze i dostarczyć ukierunkowane kontrargumenty — często cytując fakty lub statystyki. Ta interaktywna argumentacja w czasie rzeczywistym przypomina działania wykwalifikowanego agitatora lub debalisty, co pomaga wyjaśnić, dlaczego boty te mogą osiągać lepsze wyniki niż statyczne reklamy w kontrolowanych warunkach.

Istnieje jednak pewien kompromis. Zespoły badawcze konsekwentnie obserwowały, że zdolność do przekonywania korelowała ze spadkiem rzetelności faktograficznej. Gdy modele były zmuszane do bycia bardziej przekonującymi, częściej zaczynały przywoływać dowody niższej jakości i jawne zmyślenia. Jedna z prawdopodobnych interpretacji technicznych mówi, że modele wyczerpują wysokiej jakości, dobrze udokumentowane dowody, a następnie sięgają po materiały słabsze lub bardziej spekulatywne; inna sugeruje, że optymalizacja pod kątem perswazji faworyzuje płynność retoryczną nad wiernością faktom. Tak czy inaczej, efektem jest klasa narzędzi, których najsilniejsze argumenty są jednocześnie tymi, które najprawdopodobniej wprowadzają w błąd.

Asymetrie i ograniczenia w świecie rzeczywistym

Ważne zastrzeżenia studzą entuzjazm płynący z nagłówkowych liczb. Eksperymenty były zazwyczaj prowadzone w skoncentrowanych, sterowanych warunkach, w których wolontariusze spędzali kilka minut na skupionym dialogu politycznym z botem — a nie w chaotycznej ekonomii uwagi pełnej kanałów informacyjnych, grup znajomych i ulotnych kliknięć. Badacze i komentatorzy zwracają uwagę, że efekty laboratoryjne mogą wyolbrzymiać to, co wydarzy się, gdy ludzie będą przypadkowo stykać się z AI w codziennym życiu.

Mimo to badania ujawniają dwa asymetryczne zagrożenia. Po pierwsze, dostęp i wdrażanie są nierównomierne. Sztaby wyborcze, zamożni aktorzy i obce państwa prawdopodobnie wcześniej zyskają dostęp do najbardziej przekonujących łańcuchów narzędziowych, co może stworzyć nieuczciwą przewagę. Po drugie, uprzedzenia modeli mogą odzwierciedlać partyjne środowiska informacyjne: w opublikowanych zbiorach danych zespoły odkryły, że boty promujące prawicowe stanowiska generowały więcej nieścisłości, prawdopodobnie dlatego, że same zbiory treningowe zawierają asymetryczną dezinformację.

Ekonomia i skala: jak tania może stać się perswazja?

Jednym z bardziej alarmujących wyliczeń w niedawnych komentarzach politycznych jest koszt skalowania działań. Korzystając z publicznych cen API i ostrożnych założeń (dotyczących długości rozmów i kosztów tokenów), analitycy wykazali, że dany podmiot mógłby dotrzeć do dziesiątek milionów wyborców ze spersonalizowaną wymianą czatową za kwotę poniżej miliona dolarów. Te wyliczenia są z konieczności przybliżone — ceny modeli, przepustowość, synteza głosu i kanały dostarczania zwiększają złożoność — ale jasno pokazują, że zautomatyzowana perswazja indywidualna znajduje się już w zasięgu budżetu dobrze finansowanych kampanii, komitetów PAC czy operacji zagranicznego wpływu.

Reakcje polityczne: mozaika i luki

Podejścia regulacyjne są niejednolite. Akt o sztucznej inteligencji Unii Europejskiej (AI Act) wyraźnie traktuje perswazję związaną z wyborami jako zastosowanie wysokiego ryzyka i nakłada obowiązki na systemy zaprojektowane w celu wpływania na zachowania wyborcze. Dla kontrastu, polityka federalna USA pozostaje rozproszona: przepisy o prywatności, ujawnianie informacji w mediach oraz garść praw stanowych skupiają się na deepfake'ach lub przejrzystości reklam, ale nie obejmują kompleksowo perswazji konwersacyjnej na platformach i w kanałach offline. Ciężar egzekwowania przepisów w USA spadł w dużej mierze na prywatne platformy; firmy te mają różne polityki i bodźce, a narzędzia poza-platformowe lub otwartoźródłowe pozostają poza ich zasięgiem.

Badacze i analitycy polityczni proponują obecnie wielowarstwową reakcję: (1) standardy techniczne i możliwe do zweryfikowania pochodzenie komunikatów politycznych; (2) ograniczenia lub ścisłą kontrolę nad udostępnianiem masowych zasobów obliczeniowych, które mogą być użyte do prowadzenia dużych kampanii perswazyjnych; (3) wymogi ujawniania informacji dla systemów zaprojektowanych w celu wpływania na poglądy polityczne; oraz (4) koordynację międzynarodową — ponieważ kampanie transgraniczne mogą być prowadzone z jurysdykcji o słabym nadzorze.

Debata: alarmizm kontra niuanse

Badacze, którzy przeprowadzili eksperymenty z perswazją, odpowiadają, że oba punkty widzenia są ze sobą spójne: technologia jest ewidentnie przekonująca w ściśle kontrolowanych interakcjach i dlatego wymaga pilnej uwagi; jednocześnie rzeczywistość ukształtuje sposób, w jaki technologie te będą faktycznie używane, a interwencje są możliwe. Wyzwaniem dla polityki jest zwiększenie kosztów i trudności prowadzenia niejawnej perswazji na dużą skalę przy jednoczesnym umożliwieniu korzystnych zastosowań: chatbotów kandydatów wyjaśniających program, asystentów obywatelskich streszczających kwestie referendalne czy narzędzi dziennikarskich zwiększających dostęp do informacji.

Co kampanie, platformy i regulatorzy mogą zrobić teraz

  • Wymagać potwierdzania pochodzenia i ujawniania informacji w przypadku komunikatów politycznych, w tym agentów konwersacyjnych zajmujących się tematami obywatelskimi.
  • Nakazać niezależne audyty modeli i egzekwowanie zasad platform dotyczących automatyzacji ukierunkowanej politycznie.
  • Ograniczyć pozarynkowy dostęp do największych stosów obliczeniowych o skali wnioskowania, gdy są one wykorzystywane do prowadzenia politycznych kampanii perswazyjnych, wraz z wprowadzeniem przejrzystości na rynkach dzierżawy GPU.
  • Finansować monitoring interesu publicznego i otwarte zbiory danych, aby niezależni badacze mogli replikować i oceniać twierdzenia dotyczące perswazji.
  • Rozszerzać edukację cyfrową i publiczne kanały informacyjne, które pomagają wyborcom sprawdzać twierdzenia i weryfikować fakty pochodzące z AI.

W jakim kierunku powinny iść dalsze badania

Polityką powinny kierować dwa priorytety badawcze: po pierwsze, replikowane eksperymenty terenowe mierzące efekty w naturalnych warunkach (nie tylko w skoncentrowanych dialogach laboratoryjnych); po drugie, systemy pomiaru i monitoringu wykrywające skoordynowane kampanie perswazyjne w różnych formach i na różnych platformach. Bez lepszego, podlegającego audytowi dostępu do danych — bibliotek reklam, logów platform i pochodzenia modeli — decydenci będą tworzyć zasady z jedną ręką związaną za plecami.

Niedawne badania są sygnałem alarmowym, który nie jest ani zapowiedzią apokalipsy, ani panaceum. Systemy AI już teraz mogą wpływać na opinie w potężny sposób, robiąc to taniej i elastyczniej niż wcześniejsze narzędzia cyfrowej perswazji. Jednocześnie wyniki zależą od ludzkich wyborów — tego, jacy aktorzy wdrożą narzędzia, jak modele zostaną dostrojone, jakie zasady i standardy będą rządzić ich użyciem oraz czy społeczeństwo obywatelskie zdoła zbudować infrastrukturę monitoringu potrzebną do wykrywania nadużyć. Kluczowym pytaniem dla demokracji jest to, czy instytucje zadziałają teraz, by kształtować te wybory, czy też następne wybory staną się laboratorium, w którym odpowiedź zostanie zapisana głosami i zwątpieniem.

Źródła

  • Nature (praca badawcza na temat perswazji chatbotów)
  • Science (praca badawcza na temat LLM zoptymalizowanych pod kątem perswazji)
  • Cornell University (zespoły eksperymentalne badające AI i perswazję)
  • Massachusetts Institute of Technology (David Rand i współpracownicy)
  • Knight First Amendment Institute (analiza: „Don't Panic (Yet)”)
James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q Jak przekonujące są chatboty AI w porównaniu z tradycyjnymi reklamami i jaką skalę zmian odnotowano w badaniach?
A Dwa flagowe badania wykazały, że krótkie dialogi ze stronniczymi chatbotami AI mogą zmieniać opinie, a w niektórych warunkach laboratoryjnych przesunięcia sięgały połowy trzeciej dziesiątki w skali 100-punktowej. W testach przeprowadzonych w USA przed wyborami w 2024 roku, uczestnicy sprzyjający Trumpowi przesunęli się o około 3,9 punktu w stronę bota wspierającego Harris, podczas gdy w odwrotną stronę zmiana wyniosła ~2,3 punktu; w Kanadzie i Polsce odnotowano większe zmiany, sięgające około 10 punktów.
Q Jaki mechanizm sprawia, że perswazja AI działa i jaki kompromis wykazuje ona w stosunku do dokładności?
A Naukowcy przypisują ten efekt dopasowaniu konwersacyjnemu oraz wysokiej gęstości argumentacji: chatbot potrafi odczytać tok rozumowania użytkownika, przełamać obiekcje i dostarczyć ukierunkowane kontrargumenty, selektywnie cytując źródła. Ta interaktywna argumentacja w czasie rzeczywistym przypomina działania doświadczonego ankietera, co pomaga wyjaśnić wysoką skuteczność w porównaniu do statycznych reklam. Jednak dążenie do bycia przekonującym zwiększa ryzyko mniejszej dokładności merytorycznej.
Q Jakie ograniczenia w świecie rzeczywistym i wzorce ryzyka ujawniają te badania?
A Wnioski z badań laboratoryjnych niosą ze sobą ważne zastrzeżenia: badania przeprowadzono w sterowanych, kontrolowanych warunkach z ukierunkowanym dialogiem, a nie w chaotycznej gospodarce uwagi opartej na kanałach informacyjnych i przypadkowych interakcjach. Wyniki pokazują asymetryczne zagrożenia: wcześniejszy dostęp dla sztabów wyborczych i zagranicznych podmiotów, a także uprzedzenia odzwierciedlające partyjne środowiska informacyjne. Boty o profilu prawicowym miały tendencję do generowania większej liczby nieścisłości, co podkreśla obawy dotyczące danych treningowych i dezinformacji.
Q Jak wyglądają reakcje w zakresie polityki i czym różnią się podejścia UE i USA?
A Reakcje polityczne są opisywane jako niejednolite i pełne luk. Akt o sztucznej inteligencji Unii Europejskiej traktuje perswazję wyborczą jako wysokiego ryzyka i nakłada obowiązki na systemy zaprojektowane w celu wpływania na zachowania wyborcze. Z kolei polityka USA pozostaje fragmentaryczna, z przepisami dotyczącymi prywatności, ujawniania informacji i przejrzystości reklam, które nie obejmują kompleksowo perswazji konwersacyjnej na platformach ani w kanałach offline. Egzekwowanie przepisów spadło w dużej mierze na prywatne platformy, podczas gdy narzędzia open-source pozostają poza ich zasięgiem.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!