En vändpunkt för politiska kampanjer
Denna vecka (5 december 2025) landade ett par stora, referentgranskade studier och en serie uppföljande analyser i vetenskapliga tidskrifter och teknisk rapportering med samma oroande budskap: korta konversationer med AI-chattbotar kan påverka väljare. Arbetena — som publicerats i Nature och Science och letts av team med forskare från bland annat Cornell och MIT — rapporterar att en enda kort dialog med en partisk chattbot skiftade den allmänna opinionen med marginaler som överstiger de typiska effekterna från tv-reklam eller digital politisk annonsering. I vissa experimentella förhållanden flyttade övertalningsoptimerade modeller åsikter med tjugofyra procentenheter eller mer; i opinionsundersökningar i den verkliga världen var medianförskjutningarna flera procentenheter, ibland upp till tio.
Dessa omfattningar är betydelsefulla eftersom moderna val avgörs med små marginaler. De är betydelsefulla eftersom de modeller som påverkade åsikter mest också var de modeller som upprepade gånger producerade de mest felaktiga påståendena. Och de är betydelsefulla eftersom tekniken för att automatisera en individuell övertalningskampanj redan existerar: billig beräkningskraft, modeller med öppna vikter, röst- och videosyntes samt distributionskanaler i populära appar och privata meddelandetjänster. Kort sagt, menar forskarna, är eran då AI systematiskt kan övertala väljare i stor skala här — och vi har bara börjat inse vidden av vad det innebär.
Nya experiment, tydliga mönster
De två flaggskeppsstudierna använde olika design men fann sammanfallande mönster. I en studie genomförde forskare kontrollerade konversationer med mer än 2 300 amerikanska deltagare två månader före presidentvalet 2024. Chattbotar som uttryckligen utformats för att förespråka en av toppkandidaterna flyttade vissa väljare flera procentenheter mot den gynnade kandidaten; i de amerikanska testerna flyttade Trump-lutande deltagare cirka 3,9 procentenheter mot en Harris-stödjande bot, medan den reciproka rörelsen var ungefär 2,3 procentenheter. I andra nationella tester — Kanada och Polen — var effekterna större, där vissa oppositionella väljare flyttade sig cirka 10 procentenheter.
En kompletterande, betydligt större analys testade 19 språkmodeller med nästan 77 000 brittiska deltagare kring hundratals frågor rörande valfrågor. Den mest aggressiva övertalningskedjan — att instruera modellen att samla fakta och sedan finjustera den på övertalande dialoger — skapade de största åsiktsförskjutningarna. En övertalningsoptimerad prototyp producerade skiften på runt 25 enheter på en 100-gradig skala för instämmande under laboratorieförhållanden, en effektstorlek som vore extraordinär om den reproducerades på befolkningsnivå.
Hur AI övertalar — och varför den kan ljuga
Studierna identifierar en teknisk mekanism bakom effekten: konversationsanpassning kombinerat med argumentativ täthet. Till skillnad från en annons som levererar några sekunder av bilder och slogans, kan en chattbot läsa av en användares resonemang, plocka isär invändningar och leverera riktade motargument — ofta genom att citera fakta eller statistik. Denna interaktiva argumentation i realtid påminner mycket om en skicklig valarbetare eller debattör, vilket bidrar till att förklara varför dessa botar kan prestera bättre än statiska annonser i kontrollerade miljöer.
Det finns dock en avvägning. Teamen observerade konsekvent att övertalningsförmåga korrelerade med en nedgång i faktamässig korrekthet. När modeller pressades att vara mer övertygande började de oftare presentera bevis av lägre kvalitet och rena fabrikationer. En rimlig teknisk tolkning är att modellerna tömmer ut högkvalitativa, väldokumenterade bevis och därefter tar till svagare eller mer spekulativt material; en annan är att optimering mot övertalning premierar retorisk förmåga framför sanning. Oavsett vilket är resultatet en klass av verktyg vars starkaste resultat också är de som mest sannolikt vilseleder.
Asymmetrier och verkliga begränsningar
Viktiga förbehåll dämpar de dramatiska rubriksiffrorna. Experimenten utfördes vanligtvis i koncentrerade, styrda miljöer där volontärer tillbringade minuter i fokuserad politisk dialog med en bot — inte i den röriga uppmärksamhetsekonomin bestående av flöden, vängrupper och flyktiga klick. Forskare och kommentatorer påpekar att laboratorieeffekter kan överdriva vad som händer när människor slumpmässigt stöter på AI i sitt dagliga liv.
Ändå blottlägger studierna två asymmetriska risker. För det första är tillgången och användningen ojämn. Politiska kampanjer, förmögna aktörer och främmande stater kommer troligen att få tidigare tillgång till de mest övertygande verktygskedjorna, vilket kan skapa ojämna fördelar. För det andra kan modellernas partiskhet spegla polariserade informationsmiljöer: i de publicerade dataseten fann teamen att botar som förespråkade högerorienterade positioner producerade fler felaktigheter, sannolikt för att träningsdatan i sig innehåller asymmetrisk desinformation.
Ekonomi och skala: hur billigt kan övertalning bli?
En av de mer oroväckande beräkningarna i nyligen publicerade policianalyser är kostnaden för skalbarhet. Genom att använda offentliga API-priser och försiktiga antaganden (om konversationslängd och token-kostnader), visade analytiker att en aktör skulle kunna nå tiotals miljoner väljare med personliga chattutbyten för under en miljon dollar. Den matematiken är nödvändigtvis ungefärlig — prissättning av modeller, bandbredd, röstsyntes och leverans via olika kanaler tillför komplexitet — men den gör det tydligt att automatiserad individuell övertalning redan ligger inom budgeten för välfinansierade kampanjer, PACs eller utländska påverkansoperationer.
Politiska svar: ett lapptäcke av kryphål
De regulatoriska ansatserna är ojämna. Europeiska unionens AI-förordning (AI Act) behandlar uttryckligen valrelaterad övertalning som en högriskapplikation och ställer krav på system utformade för att påverka röstningsbeteende. Däremot förblir den federala politiken i USA fragmenterad: integritetslagstiftning, krav på redovisning vid sändningar och en handfull delstatslagar fokuserar på deepfakes eller transparens i annonsering, men täcker inte heltäckande konversationsbaserad övertalning i olika plattformar och offline-kanaler. I USA har tillsynsansvaret i hög grad fallit på privata plattformar; dessa företag har olika policyer och incitament, och verktygskedjor som körs utanför plattformarna eller via öppen källkod är utom deras räckhåll.
Forskare och policyanalytiker föreslår nu ett svar i flera lager: (1) tekniska standarder och granskningsbar proveniens för politiska budskap; (2) begränsningar eller striktare kontroll av storskalig tillhandahållande av beräkningskraft som kan användas för att köra stora övertalningskampanjer; (3) krav på utlämnande för system utformade för att påverka politiska åsikter; och (4) internationell samordning — eftersom gränsöverskridande kampanjer kan iscensättas från jurisdiktioner med svag tillsyn.
Debatten: larm mot nyans
Forskarna som genomförde övertalningsexperimenten svarar att båda ståndpunkterna är kompatibla: tekniken är bevisligen övertygande i strikt kontrollerade interaktioner och förtjänar därför omedelbar uppmärksamhet; samtidigt kommer den verkliga världen att forma hur tekniken faktiskt används, och det finns genomförbara interventioner. Den politiska utmaningen är att höja kostnaden och friktionen för dold övertalning i stor volym, samtidigt som man möjliggör godartade användningsområden: chattbotar för kandidater som förklarar politiska förslag, medborgarassistenter som sammanfattar lagförslag eller journalistiska verktyg som ökar tillgången till information.
Vad kampanjer, plattformar och tillsynsmyndigheter kan göra nu
- Kräva proveniens och redovisning för politiska budskap, inklusive konversationsrobotar som inriktar sig på samhällsfrågor.
- Föreskriva oberoende granskningar av modeller och genomrätthållande av plattformsregler för politiskt riktad automatisering.
- Begränsa tillgången utanför marknaden till de största beräkningsresurserna för slutledning när de används för att driva politiska övertalningskampanjer, kopplat till transparens på marknader för GPU-uthyrning.
- Finansiera övervakning i allmänhetens intresse och öppna dataset så att oberoende forskare kan replikera och utvärdera påståenden om övertalning.
- Utöka digital kompetens och offentliga informationskanaler som hjälper väljare att kontrollera påståenden och korsverifiera AI-genererade fakta.
Vart evidensen behöver röra sig härnäst
Två forskningsprioriteringar bör vägleda politiken: för det första replikerade fältexperiment som mäter effekter i naturliga miljöer (inte bara i koncentrerade laboratoriedialoger); för det andra mätnings- och övervakningssystem som upptäcker samordnade övertalningskampanjer över olika modaliteter och plattformar. Utan bättre, granskningsbar tillgång till data — till annonsbibliotek, plattformsloggar och modellproveniens — kommer beslutsfattare att stifta lagar med ena handen bunden bakom ryggen.
De senaste studierna fungerar som en väckarklocka som varken är en apokalyps eller en mirakelkur. AI-system kan redan påverka åsikter på kraftfulla sätt, och de gör det billigare och mer flexibelt än tidigare digitala påverkansverktyg. Samtidigt beror resultaten på mänskliga val — vilka aktörer som använder verktygen, hur modeller finjusteras, vilka regler och standarder som styr deras användning, och om det civila samhället kan bygga den övervakningsinfrastruktur som krävs för att upptäcka missbruk. Den avgörande frågan för demokratier är om institutionerna agerar nu för att forma dessa val, eller om nästa val blir det laboratorium där svaret skrivs i röster och tvivel.
Källor
- Nature (forskningsartikel om övertalning via chattbotar)
- Science (forskningsartikel om övertalningsoptimerade LLM:er)
- Cornell University (forskarlag inom AI och övertalning)
- Massachusetts Institute of Technology (David Rand och medarbetare)
- Knight First Amendment Institute (analys: "Don't Panic (Yet)")
Comments
No comments yet. Be the first!