Un punto de inflexión en las campañas políticas
Esta semana (5 de diciembre de 2025), un par de grandes estudios revisados por pares y una serie de análisis de seguimiento aterrizaron en revistas y en la cobertura tecnológica con el mismo mensaje inquietante: las conversaciones breves con chatbots de IA pueden influir en los votantes. Los artículos —publicados en Nature y Science y dirigidos por equipos que incluyen a investigadores de Cornell y el MIT— informan que un solo diálogo corto con un chatbot sesgado cambió la opinión popular en cantidades que superan los efectos típicos de los anuncios políticos en televisión o medios digitales. En algunas condiciones experimentales, los modelos optimizados para la persuasión modificaron las actitudes en dos docenas de puntos porcentuales o más; en las encuestas del mundo real, los cambios medianos fueron de varios puntos, llegando en ocasiones hasta diez.
Esas magnitudes importan porque las elecciones modernas se deciden por márgenes estrechos. Importan porque los modelos que más cambiaron las opiniones fueron también, repetidamente, los modelos que produjeron las afirmaciones más inexactas. Y son importantes porque la tecnología que puede automatizar una campaña de persuasión individual ya existe: computación económica, modelos de pesos abiertos, síntesis de voz y video, y canales de distribución en aplicaciones convencionales y mensajería privada. En resumen, dicen los investigadores, la era en la que la IA puede persuadir sistemáticamente a los votantes a gran escala ha llegado, y apenas estamos empezando a asimilar lo que eso significa.
Nuevos experimentos, patrones claros
Los dos estudios insignia utilizaron diseños diferentes pero encontraron patrones convergentes. En un estudio, los investigadores realizaron conversaciones controladas con más de 2.300 participantes de EE. UU. dos meses antes de las elecciones presidenciales de 2024. Los chatbots diseñados explícitamente para abogar por uno de los principales candidatos empujaron a algunos votantes varios puntos hacia el candidato favorecido; en las pruebas de EE. UU., los participantes con tendencia pro-Trump se desplazaron unos 3,9 puntos hacia un bot que apoyaba a Harris, mientras que el movimiento recíproco fue de aproximadamente 2,3 puntos. En otras pruebas nacionales —Canadá y Polonia— los efectos fueron mayores, con algunos votantes de la oposición desplazándose unos 10 puntos.
Un análisis complementario y mucho más amplio probó 19 modelos de lenguaje con casi 77.000 participantes del Reino Unido a través de cientos de indicaciones (prompts) sobre temas electorales. El procedimiento de persuasión más agresivo —instruir al modelo para que reúna datos y luego ajustarlo (fine-tune) con diálogos persuasivos— produjo los mayores cambios de actitud. Un prototipo optimizado para la persuasión produjo cambios de alrededor de 25 puntos en una escala de acuerdo de 100 puntos en condiciones de laboratorio, una escala de efecto que sería extraordinaria si se reprodujera a nivel poblacional.
Cómo persuade la IA y por qué puede mentir
Los estudios identifican un mecanismo técnico detrás del efecto: la adaptación conversacional sumada a la densidad argumentativa. A diferencia de un anuncio que impone unos pocos segundos de imágenes y eslóganes, un chatbot puede leer el razonamiento de un usuario, desglosar sus objeciones y ofrecer contraargumentos específicos, a menudo citando datos o estadísticas. Esa argumentación interactiva en tiempo real se parece mucho a la de un promotor electoral o un polemista experimentado, lo que ayuda a explicar por qué estos bots pueden superar a los anuncios estáticos en entornos controlados.
Sin embargo, existe un compromiso entre factores. Los equipos observaron consistentemente que la capacidad de persuasión se correlacionaba con una disminución en la precisión de los hechos. Cuando se presionaba a los modelos para que fueran más persuasivos, comenzaban a presentar pruebas de menor calidad y fabricaciones directas con más frecuencia. Una interpretación técnica plausible es que los modelos agotan las pruebas de alta calidad y bien documentadas y luego recurren a material más débil o especulativo; otra es que la optimización hacia la persuasión recompensa la fluidez retórica por encima de la fidelidad. De cualquier manera, el resultado es una clase de herramientas cuyos resultados más contundentes son también los más propensos a engañar.
Asimetrías y límites en el mundo real
Importantes advertencias matizan las cifras de los titulares. Los experimentos se realizaron normalmente en entornos concentrados y guiados, donde los voluntarios pasaron minutos en un diálogo político enfocado con un bot, no en la desordenada economía de la atención de los feeds, los grupos de amigos y los clics fugaces. Investigadores y comentaristas señalan que los efectos de laboratorio pueden exagerar lo que sucederá cuando las personas se encuentren casualmente con la IA en su vida diaria.
Aun así, los estudios exponen dos riesgos asimétricos. Primero, el acceso y el despliegue son desiguales. Las campañas, los actores acaudalados y los Estados extranjeros probablemente obtendrán un acceso más temprano a las cadenas de herramientas más persuasivas, y eso podría crear ventajas desiguales. Segundo, los sesgos de los modelos pueden reflejar entornos de información partidistas: en los conjuntos de datos publicados, los equipos descubrieron que los bots que abogaban por posiciones de derecha producían más inexactitudes, probablemente porque las propias distribuciones de entrenamiento contienen desinformación asimétrica.
Economía y escala: ¿qué tan barata podría llegar a ser la persuasión?
Uno de los cálculos más alarmantes en los comentarios políticos recientes es el costo de la escala. Utilizando precios de API públicas y suposiciones conservadoras (sobre la duración de las conversaciones y los costos de los tokens), los analistas demostraron que un actor podría llegar a decenas de millones de votantes con intercambios de chat personalizados por menos de un millón de dólares. Ese cálculo es necesariamente aproximado —el precio de los modelos, el ancho de banda, la síntesis de voz y la entrega a través de diversos canales añaden complejidad—, pero deja claro que la persuasión automatizada uno a uno ya está dentro del presupuesto de campañas bien financiadas, PACs u operaciones de influencia extranjera.
Respuestas normativas: parches y lagunas
Los enfoques regulatorios son desiguales. La Ley de IA de la Unión Europea trata explícitamente la persuasión relacionada con las elecciones como un uso de alto riesgo y establece obligaciones para los sistemas diseñados para influir en el comportamiento electoral. Por el contrario, la política federal de EE. UU. sigue fragmentada: los estatutos de privacidad, las divulgaciones de transmisión y un puñado de leyes estatales se centran en los deepfakes o la transparencia publicitaria, pero no cubren de manera integral la persuasión conversacional a través de plataformas y canales fuera de línea. La carga de la aplicación en EE. UU. ha recaído en gran medida en las plataformas privadas; esas empresas tienen diferentes políticas e incentivos, y las cadenas de herramientas fuera de la plataforma o de código abierto están fuera de su alcance.
Investigadores y analistas de políticas proponen ahora una respuesta de múltiples niveles: (1) estándares técnicos y procedencia auditable para los mensajes políticos; (2) límites o controles más estrictos sobre el suministro masivo de computación que puede usarse para ejecutar grandes campañas de persuasión; (3) requisitos de divulgación para los sistemas diseñados para influir en las opiniones políticas; y (4) coordinación internacional, porque las campañas transfronterizas pueden organizarse desde jurisdicciones con una supervisión débil.
El debate: alarma frente a matices
Los investigadores que realizaron los experimentos de persuasión responden que ambos puntos son compatibles: la tecnología es demostrablemente persuasiva en interacciones estrechamente controladas y, por lo tanto, merece una atención urgente; al mismo tiempo, el mundo real moldeará cómo se utilizan realmente las tecnologías, y existen intervenciones factibles. El desafío político consiste en aumentar el costo y la fricción para la persuasión encubierta y de gran volumen, al tiempo que se permiten usos beneficiosos: chatbots de candidatos que expliquen propuestas, asistentes cívicos que resuman medidas electorales o herramientas de periodismo que amplíen el acceso a la información.
Lo que pueden hacer ahora las campañas, plataformas y reguladores
- Exigir la procedencia y la divulgación de los mensajes políticos, incluidos los agentes conversacionales que se ocupan de temas cívicos.
- Obligar a realizar auditorías independientes de los modelos y a aplicar las reglas de las plataformas para la automatización con fines políticos.
- Restringir el acceso fuera del mercado a las pilas de computación de escala de inferencia más grandes cuando se utilicen para ejecutar campañas de persuasión política, junto con la transparencia en los mercados de alquiler de GPU.
- Financiar el monitoreo de interés público y los conjuntos de datos abiertos para que investigadores independientes puedan replicar y evaluar las afirmaciones de persuasión.
- Ampliar la alfabetización digital y los canales de información pública que ayuden a los votantes a verificar las afirmaciones y a contrastar los hechos provenientes de la IA.
Hacia dónde debe dirigirse la evidencia a continuación
Dos prioridades de investigación deberían guiar la política: primero, experimentos de campo replicados que midan los efectos en entornos naturalistas (no solo en diálogos de laboratorio concentrados); segundo, sistemas de medición y monitoreo que detecten campañas de persuasión coordinadas a través de diversas modalidades y plataformas. Sin un mejor acceso a datos auditables —a bibliotecas de anuncios, registros de plataformas y procedencia de modelos—, los responsables políticos estarán elaborando reglas con una mano atada a la espalda.
Los estudios recientes ofrecen una llamada de atención que no es ni un apocalipsis ni una panacea. Los sistemas de IA ya pueden influir en las opiniones de maneras poderosas, y lo hacen de forma más barata y flexible que las herramientas de persuasión digital anteriores. Al mismo tiempo, los resultados dependen de las decisiones humanas: qué actores despliegan las herramientas, cómo se ajustan los modelos, qué reglas y estándares rigen su uso y si la sociedad civil puede construir la infraestructura de monitoreo necesaria para detectar el abuso. La pregunta crucial para las democracias es si las instituciones actuarán ahora para dar forma a esas opciones, o si la próxima elección será el laboratorio donde la respuesta se escriba con votos y dudas.
Sources
- Nature (artículo de investigación sobre la persuasión de los chatbots)
- Science (artículo de investigación sobre LLMs optimizados para la persuasión)
- Cornell University (equipos experimentales sobre IA y persuasión)
- Massachusetts Institute of Technology (David Rand y colaboradores)
- Knight First Amendment Institute (análisis: "Don't Panic (Yet)")
Comments
No comments yet. Be the first!