Una svolta nelle campagne politiche
Questa settimana (5 dicembre 2025), una coppia di ampi studi peer‑reviewed e una serie di analisi successive sono apparsi su riviste scientifiche e testate tecnologiche con lo stesso inquietante messaggio: brevi conversazioni con i chatbot di IA possono influenzare gli elettori. Gli articoli — pubblicati su Nature e Science e guidati da team di ricercatori della Cornell e del MIT — riportano che un singolo breve dialogo con un chatbot di parte ha spostato l’opinione pubblica in misura superiore agli effetti tipici degli annunci politici televisivi o digitali. In alcune condizioni sperimentali, i modelli ottimizzati per la persuasione hanno spostato gli orientamenti di oltre venti punti percentuali; nei sondaggi reali, gli spostamenti mediani sono stati di diversi punti, arrivando a volte fino a dieci.
Queste grandezze sono importanti perché le elezioni moderne si decidono su margini ristretti. Sono importanti perché i modelli che hanno spostato maggiormente le opinioni sono stati anche, ripetutamente, quelli che hanno prodotto le affermazioni più inaccurate. E contano perché la tecnologia in grado di automatizzare una campagna di persuasione individuale esiste già: potenza di calcolo economica, modelli open‑weight, sintesi vocale e video e canali di distribuzione nelle app mainstream e nella messaggistica privata. In breve, dicono i ricercatori, l'era in cui l'IA può persuadere sistematicamente gli elettori su larga scala è arrivata — e abbiamo appena iniziato a fare i conti con ciò che questo comporta.
Nuovi esperimenti, schemi chiari
I due studi principali hanno utilizzato design differenti ma hanno riscontrato schemi convergenti. In uno studio, i ricercatori hanno condotto conversazioni controllate con oltre 2.300 partecipanti negli Stati Uniti due mesi prima delle elezioni presidenziali del 2024. I chatbot esplicitamente progettati per sostenere uno dei principali candidati hanno spostato alcuni elettori di diversi punti verso il candidato favorito; nei test negli Stati Uniti, i partecipanti tendenti a Trump si sono spostati di circa 3,9 punti verso un bot a favore di Harris, mentre il movimento reciproco è stato di circa 2,3 punti. In altri test nazionali — Canada e Polonia — gli effetti sono stati maggiori, con alcuni elettori dell'opposizione che si sono spostati di circa 10 punti.
Un'analisi complementare, molto più vasta, ha testato 19 modelli linguistici con quasi 77.000 partecipanti nel Regno Unito su centinaia di quesiti referendari. Il processo di persuasione più aggressivo — istruire il modello a raccogliere fatti e poi sottoporlo a fine‑tuning su dialoghi persuasivi — ha prodotto i maggiori cambiamenti di atteggiamento. Un prototipo ottimizzato per la persuasione ha prodotto spostamenti di circa 25 punti su una scala di accordo da 100 in condizioni di laboratorio, una portata dell'effetto che sarebbe straordinaria se riprodotta su scala demografica.
Come l'IA persuade — e perché può mentire
Gli studi identificano un meccanismo tecnico alla base dell'effetto: personalizzazione conversazionale unita a densità argomentativa. A differenza di un annuncio che propone pochi secondi di immagini e slogan, un chatbot può leggere il ragionamento di un utente, analizzarne le obiezioni e fornire controargomentazioni mirate — spesso citando fatti o statistiche. Questa argomentazione interattiva in tempo reale somiglia molto a quella di un abile attivista o di un parlatore esperto, il che aiuta a spiegare perché questi bot possano superare gli annunci statici in contesti controllati.
C'è però un compromesso. I team hanno costantemente osservato che la persuasività era correlata a un calo dell'accuratezza dei fatti. Quando i modelli venivano spinti a essere più persuasivi, iniziavano a presentare più spesso prove di bassa qualità e vere e proprie invenzioni. Una possibile lettura tecnica è che i modelli esauriscano le prove di alta qualità e ben documentate per poi attingere a materiale più debole o speculativo; un'altra è che l'ottimizzazione verso la persuasione premi la fluidità retorica rispetto alla fedeltà ai fatti. In ogni caso, il risultato è una classe di strumenti i cui output più efficaci sono anche quelli con maggiore probabilità di trarre in inganno.
Asimmetrie e limiti del mondo reale
Importanti precisazioni mitigano i numeri principali. Gli esperimenti sono stati tipicamente condotti in contesti concentrati e guidati da prompt, dove i volontari hanno trascorso minuti in un dialogo politico focalizzato con un bot — non nella caotica economia dell'attenzione fatta di feed, gruppi di amici e clic fugaci. Ricercatori e commentatori sottolineano che gli effetti di laboratorio potrebbero sovrastimare ciò che accadrà quando le persone incontreranno casualmente l'IA nella loro vita quotidiana.
Tuttavia, gli studi espongono due rischi asimmetrici. In primo luogo, l'accesso e la distribuzione non sono uniformi. Le campagne elettorali, gli attori facoltosi e gli stati stranieri otterranno probabilmente un accesso anticipato alle catene di strumenti più persuasive, e ciò potrebbe creare vantaggi squilibrati. In secondo luogo, i pregiudizi dei modelli possono riflettere ambienti informativi partigiani: nei dataset pubblicati, i team hanno scoperto che i bot che sostenevano posizioni di destra producevano più imprecisioni, probabilmente perché le distribuzioni di addestramento stesse contengono disinformazione asimmetrica.
Economia e scala: quanto potrebbe diventare economica la persuasione?
Uno dei calcoli più allarmanti nei recenti commenti politici riguarda il costo della scalabilità. Utilizzando i prezzi delle API pubbliche e ipotesi conservative (sulla durata delle conversazioni e sui costi dei token), gli analisti hanno dimostrato che un attore potrebbe raggiungere decine di milioni di elettori con scambi di chat personalizzati per meno di un milione di dollari. Questo calcolo è necessariamente approssimativo — i prezzi dei modelli, la larghezza di banda, la sintesi vocale e la distribuzione tramite canali aggiungono complessità — ma rende chiaro che la persuasione individuale automatizzata è già alla portata del budget di campagne ben finanziate, PAC o operazioni di influenza straniera.
Risposte politiche: frammentazione e lacune
Gli approcci normativi sono disomogenei. L’AI Act dell’Unione Europea tratta esplicitamente la persuasione legata alle elezioni come un uso ad alto rischio e stabilisce obblighi per i sistemi progettati per influenzare il comportamento di voto. Al contrario, la politica federale degli Stati Uniti rimane frammentata: le norme sulla privacy, le informative sulle trasmissioni e una manciata di leggi statali si concentrano sui deepfake o sulla trasparenza pubblicitaria, ma non coprono in modo esauriente la persuasione conversazionale attraverso le piattaforme e i canali offline. L'onere dell'applicazione negli Stati Uniti è ricaduto in gran parte sulle piattaforme private; tali aziende hanno politiche e incentivi diversi, e le catene di strumenti off-platform o open-source sono fuori dalla loro portata.
Ricercatori e analisti politici propongono ora una risposta a più livelli: (1) standard tecnici e provenienza verificabile per i messaggi politici; (2) limiti o controlli più severi sulla fornitura di calcolo di massa che può essere utilizzata per gestire grandi campagne di persuasione; (3) requisiti di trasparenza per i sistemi progettati per influenzare le opinioni politiche; e (4) coordinamento internazionale — perché le campagne transfrontaliere possono essere messe in atto da giurisdizioni con una supervisione debole.
Il dibattito: allarmismo contro sfumature
I ricercatori che hanno condotto gli esperimenti di persuasione rispondono che entrambi i punti sono compatibili: la tecnologia è dimostrabilmente persuasiva in interazioni strettamente controllate e merita quindi un'attenzione urgente; allo stesso tempo, il mondo reale darà forma al modo in cui le tecnologie verranno effettivamente utilizzate, ed esistono interventi fattibili. La sfida politica consiste nell'aumentare i costi e gli ostacoli per la persuasione occulta ad alto volume, consentendo al contempo usi benefici: chatbot dei candidati che spiegano i programmi, assistenti civici che riassumono i quesiti referendari o strumenti giornalistici che ampliano l'accesso alle informazioni.
Cosa possono fare ora campagne, piattaforme e autorità di regolamentazione
- Richiedere la provenienza e la trasparenza per i messaggi politici, inclusi gli agenti conversazionali che trattano temi civici.
- Imporre audit indipendenti dei modelli e l'applicazione delle regole delle piattaforme per l'automazione mirata politicamente.
- Limitare l'accesso fuori mercato agli stack computazionali più grandi per l'inferenza quando utilizzati per campagne di persuasione politica, unitamente alla trasparenza nei mercati del leasing delle GPU.
- Finanziare il monitoraggio di pubblico interesse e dataset aperti affinché i ricercatori indipendenti possano replicare e valutare le affermazioni sulla persuasione.
- Ampliare l'alfabetizzazione digitale e i canali di informazione pubblica che aiutano gli elettori a verificare le affermazioni e a incrociare i fatti provenienti dall'IA.
In quale direzione deve andare la ricerca
Due priorità di ricerca dovrebbero guidare la politica: in primo luogo, esperimenti sul campo replicati che misurino gli effetti in contesti naturalistici (non solo in dialoghi di laboratorio concentrati); in secondo luogo, sistemi di misurazione e monitoraggio che rilevino campagne di persuasione coordinate attraverso modalità e piattaforme diverse. Senza un accesso migliore e verificabile ai dati — librerie pubblicitarie, log delle piattaforme e provenienza dei modelli — i legislatori scriveranno regole con una mano legata dietro la schiena.
Gli studi recenti offrono un campanello d'allarme che non è né un'apocalisse né una panacea. I sistemi di IA possono già influenzare le opinioni in modi potenti, e lo fanno in modo più economico e flessibile rispetto ai precedenti strumenti di persuasione digitale. Allo stesso tempo, i risultati dipendono dalle scelte umane — quali attori distribuiscono gli strumenti, come vengono messi a punto i modelli, quali regole e standard ne governano l'uso e se la società civile è in grado di costruire l'infrastruttura di monitoraggio necessaria per individuare gli abusi. La questione cruciale per le democrazie è se le istituzioni agiranno ora per dare forma a quelle scelte, o se la prossima elezione sarà il laboratorio in cui la risposta verrà scritta tra voti e incertezze.
Fonti
- Nature (articolo di ricerca sulla persuasione dei chatbot)
- Science (articolo di ricerca sugli LLM ottimizzati per la persuasione)
- Cornell University (team sperimentali su IA e persuasione)
- Massachusetts Institute of Technology (David Rand e collaboratori)
- Knight First Amendment Institute (analisi: "Don't Panic (Yet)")
Comments
No comments yet. Be the first!