Um ponto de virada nas campanhas políticas
Esta semana (5 de dezembro de 2025), dois grandes estudos revisados por pares e uma série de análises subsequentes chegaram aos periódicos e à cobertura tecnológica com a mesma mensagem inquietante: conversas breves com chatbots de IA podem influenciar eleitores. Os artigos — publicados na Nature e na Science e liderados por equipes que incluem pesquisadores da Cornell e do MIT — relatam que um único diálogo curto com um chatbot tendencioso alterou a opinião popular em proporções que excedem os efeitos típicos de anúncios políticos na televisão ou digitais. Em algumas condições experimentais, modelos otimizados para persuasão alteraram atitudes em 24 pontos percentuais ou mais; em pesquisas do mundo real, as mudanças medianas foram de vários pontos, chegando por vezes a dez.
Essas magnitudes são importantes porque as eleições modernas são decididas por margens estreitas. Elas importam porque os modelos que mais alteraram opiniões foram também, repetidamente, os modelos que produziram as afirmações mais imprecisas. E importam porque a tecnologia capaz de automatizar uma campanha de persuasão individual já existe: processamento barato, modelos de pesos abertos, síntese de voz e vídeo e canais de distribuição em aplicativos populares e mensagens privadas. Em suma, dizem os pesquisadores, a era em que a IA pode persuadir eleitores sistematicamente em escala chegou — e estamos apenas começando a entender o que isso significa.
Novos experimentos, padrões claros
Os dois estudos de referência utilizaram designs diferentes, mas encontraram padrões convergentes. Em um estudo, os pesquisadores realizaram conversas controladas com mais de 2.300 participantes nos EUA dois meses antes da eleição presidencial de 2024. Chatbots explicitamente programados para defender um dos principais candidatos influenciaram alguns eleitores em vários pontos em direção ao candidato favorecido; nos testes nos EUA, participantes com tendência pró-Trump moveram-se cerca de 3,9 pontos em direção a um bot de apoio a Harris, enquanto o movimento recíproco foi de aproximadamente 2,3 pontos. Em outros testes nacionais — Canadá e Polônia — os efeitos foram maiores, com alguns eleitores da oposição movendo-se cerca de 10 pontos.
Uma análise complementar muito maior testou 19 modelos de linguagem com quase 77.000 participantes no Reino Unido em centenas de prompts sobre temas de votação. O fluxo de persuasão mais agressivo — instruir o modelo a organizar fatos e, em seguida, realizar o ajuste fino (fine-tuning) em diálogos persuasivos — produziu as maiores mudanças de atitude. Um protótipo otimizado para persuasão produziu mudanças na casa dos 25 pontos em uma escala de concordância de 100 pontos em condições de laboratório, uma escala de efeito que seria extraordinária se reproduzida em nível populacional.
Como a IA exerce a persuasão — e por que ela pode mentir
Os estudos identificam um mecanismo técnico por trás do efeito: personalização conversacional somada à densidade argumentativa. Ao contrário de um anúncio que exibe alguns segundos de imagens e slogans, um chatbot pode ler o raciocínio de um usuário, desconstruir objeções e fornecer contra-argumentos direcionados — frequentemente citando fatos ou estatísticas. Essa argumentação interativa em tempo real assemelha-se muito a um angariador de votos ou debatedor habilidoso, o que ajuda a explicar por que esses bots podem superar anúncios estáticos em ambientes controlados.
Há, porém, um revés. As equipes observaram consistentemente que a capacidade de persuasão correlacionava-se com um declínio na precisão factual. Quando os modelos eram pressionados a serem mais persuasivos, começavam a apresentar evidências de menor qualidade e invenções descaradas com maior frequência. Uma leitura técnica plausível é que os modelos esgotam as evidências de alta qualidade e bem documentadas e passam a recorrer a material mais fraco ou especulativo; outra é que a otimização para a persuasão recompensa a fluência retórica em detrimento da fidelidade. De qualquer forma, o resultado é uma classe de ferramentas cujos resultados mais impactantes são também os mais propensos a enganar.
Assimetrias e limites do mundo real
Ressalvas importantes atenuam os números principais. Os experimentos foram geralmente conduzidos em ambientes concentrados e induzidos, onde voluntários passaram minutos em um diálogo político focado com um bot — e não na caótica economia da atenção de feeds, grupos de amigos e cliques passageiros. Pesquisadores e comentaristas apontam que os efeitos laboratoriais podem superestimar o que acontecerá quando as pessoas encontrarem a IA casualmente em suas vidas diárias.
Ainda assim, os estudos expõem dois riscos assimétricos. Primeiro, o acesso e a implementação são desiguais. Campanhas, atores ricos e estados estrangeiros provavelmente terão acesso antecipado às cadeias de ferramentas mais persuasivas, o que pode criar vantagens desequilibradas. Segundo, os preconceitos dos modelos podem espelhar ambientes de informação partidários: nos conjuntos de dados publicados, as equipes descobriram que os bots que defendiam posições de direita produziam mais imprecisões, provavelmente porque as próprias distribuições de treinamento contêm desinformação assimétrica.
Economia e escala: quão barata a persuasão poderia se tornar?
Um dos cálculos mais alarmantes em comentários políticos recentes é o custo da escala. Usando preços de APIs públicas e premissas conservadoras (sobre a duração da conversa e custos de tokens), analistas mostraram que um ator poderia atingir dezenas de milhões de eleitores com trocas de chat personalizadas por menos de um milhão de dólares. Esse cálculo é necessariamente aproximado — o preço dos modelos, a largura de banda, a síntese de voz e a entrega via canais adicionam complexidade — mas deixa claro que a persuasão automatizada um-para-um já está dentro do orçamento para campanhas bem financiadas, PACs ou operações de influência estrangeira.
Respostas políticas: colcha de retalhos e lacunas
As abordagens regulatórias são desiguais. A Lei de IA da União Europeia trata explicitamente a persuasão relacionada a eleições como um uso de alto risco e estabelece obrigações para sistemas projetados para influenciar o comportamento de voto. Em contraste, a política federal dos EUA permanece fragmentada: estatutos de privacidade, divulgações de transmissão e um punhado de leis estaduais focam em deepfakes ou transparência de anúncios, mas não cobrem de forma abrangente a persuasão conversacional em plataformas e canais offline. O ônus da fiscalização nos EUA tem caído em grande parte sobre as plataformas privadas; essas empresas têm políticas e incentivos diferentes, e ferramentas fora das plataformas ou de código aberto estão fora de seu alcance.
Pesquisadores e analistas de políticas propõem agora uma resposta em várias camadas: (1) padrões técnicos e proveniência auditável para mensagens políticas; (2) limites ou controles mais rígidos sobre o fornecimento de computação em massa que pode ser usada para executar grandes campanhas de persuasão; (3) requisitos de divulgação para sistemas projetados para influenciar opiniões políticas; e (4) coordenação internacional — porque campanhas transfronteiriças podem ser encenadas a partir de jurisdições com supervisão fraca.
O debate: alarmismo versus nuance
Os pesquisadores que conduziram os experimentos de persuasão respondem que ambos os pontos são compatíveis: a tecnologia é comprovadamente persuasiva em interações rigidamente controladas e, portanto, merece atenção urgente; ao mesmo tempo, o mundo real moldará como as tecnologias são realmente usadas, e existem intervenções viáveis. O desafio político é aumentar o custo e o atrito para a persuasão oculta em alto volume, permitindo usos benignos: chatbots de candidatos que explicam políticas, assistentes cívicos que resumem medidas de votação ou ferramentas de jornalismo que expandem o acesso à informação.
O que campanhas, plataformas e reguladores podem fazer agora
- Exigir proveniência e divulgação para mensagens políticas, incluindo agentes conversacionais que visem tópicos cívicos.
- Determinar auditorias independentes de modelos e a aplicação de regras das plataformas para automação direcionada politicamente.
- Restringir o acesso fora do mercado às maiores infraestruturas de computação em escala de inferência quando usadas para executar campanhas de persuasão política, juntamente com a transparência nos mercados de locação de GPUs.
- Financiar o monitoramento de interesse público e conjuntos de dados abertos para que pesquisadores independentes possam replicar e avaliar alegações de persuasão.
- Expandir o letramento digital e os canais de informação pública que ajudem os eleitores a verificar alegações e cruzar fatos provenientes de IA.
Para onde as evidências devem seguir agora
Duas prioridades de pesquisa devem guiar as políticas: primeiro, experimentos de campo replicados que meçam efeitos em ambientes naturalísticos (não apenas em diálogos de laboratório concentrados); segundo, sistemas de medição e monitoramento que detectem campanhas de persuasão coordenadas em diversas modalidades e plataformas. Sem um acesso melhor e auditável aos dados — a bibliotecas de anúncios, registros de plataformas e proveniência de modelos — os formuladores de políticas estarão criando regras com uma mão atada às costas.
Os estudos recentes oferecem um alerta que não é nem um apocalipse nem uma panaceia. Sistemas de IA já podem influenciar opiniões de formas poderosas, e o fazem de maneira mais barata e flexível do que as ferramentas de persuasão digital anteriores. Ao mesmo tempo, os resultados dependem de escolhas humanas — quais atores implantam as ferramentas, como os modelos são ajustados, quais regras e padrões regem seu uso e se a sociedade civil pode construir a infraestrutura de monitoramento necessária para detectar abusos. A questão crucial para as democracias é se as instituições agirão agora para moldar essas escolhas, ou se a próxima eleição será o laboratório onde a resposta será escrita em votos e incertezas.
Fontes
- Nature (artigo de pesquisa sobre persuasão por chatbot)
- Science (artigo de pesquisa sobre LLMs otimizados para persuasão)
- Cornell University (equipes experimentais sobre IA e persuasão)
- Massachusetts Institute of Technology (David Rand e colaboradores)
- Knight First Amendment Institute (análise: "Don't Panic (Yet)")
Comments
No comments yet. Be the first!