ИИ-убеждение: демократия под угрозой

Технологии
AI Persuasion: Democracy on the Line
Новые эксперименты показывают, что чат-боты на базе ИИ способны менять предпочтения избирателей гораздо эффективнее традиционной рекламы, однако наиболее убедительные модели также чаще распространяют дезинформацию. У законодателей остается мало времени для разработки правил, а мнения экспертов разделились между тревогой и сдержанной осторожностью.

Переломный момент в политических кампаниях

На этой неделе (5 декабря 2025 года) в научных журналах и технологических СМИ были опубликованы два крупных рецензируемых исследования и ряд последующих анализов с одним и тем же тревожным выводом: короткие беседы с ИИ-чат-ботами могут влиять на мнение избирателей. В статьях, опубликованных в Nature и Science под руководством групп исследователей из Корнелла и MIT, сообщается, что один короткий диалог с предвзятым чат-ботом менял общественное мнение в масштабах, превышающих типичный эффект от телевизионной или цифровой политической рекламы. В некоторых экспериментальных условиях модели, оптимизированные для убеждения, сдвигали отношение на два десятка процентных пунктов и более; в реальных опросах медианные сдвиги составили несколько пунктов, иногда до десяти.

Эти показатели важны, поскольку исход современных выборов часто решается с небольшим отрывом. Они важны, потому что модели, которые сильнее всего меняли мнение, также неоднократно оказывались моделями, генерирующими самые неточные утверждения. И они важны, потому что технологии, способные автоматизировать кампанию индивидуального убеждения, уже существуют: дешевые вычислительные мощности, модели с открытыми весами, синтез голоса и видео, а также каналы распространения в популярных приложениях и частных мессенджерах. Вкратце, по словам исследователей, наступила эра, когда ИИ может систематически убеждать избирателей в массовом масштабе — и мы только начинаем осознавать, что это значит.

Новые эксперименты, четкие закономерности

В двух флагманских исследованиях использовались разные подходы, но были обнаружены схожие закономерности. В одном исследовании ученые провели контролируемые беседы с более чем 2300 участниками из США за два месяца до президентских выборов 2024 года. Чат-боты, специально настроенные на поддержку одного из главных кандидатов, склоняли некоторых избирателей на несколько пунктов в сторону фаворита; в ходе тестирования в США сторонники Трампа сместились примерно на 3,9 пункта в сторону бота, поддерживающего Харрис, в то время как обратное движение составило примерно 2,3 пункта. В других национальных тестах — в Канаде и Польше — эффект был более значительным: некоторые оппозиционные избиратели меняли свою позицию примерно на 10 пунктов.

Дополнительный, гораздо более масштабный анализ охватил 19 языковых моделей и почти 77 000 участников из Великобритании по сотням вопросов для голосования. Самый агрессивный процесс убеждения — дать модели команду систематизировать факты, а затем дообучить ее на убеждающих диалогах — привел к самым значительным сдвигам во взглядах. Один прототип, оптимизированный для убеждения, в лабораторных условиях продемонстрировал сдвиги около 25 пунктов по 100-балльной шкале согласия. Подобный масштаб эффекта был бы экстраординарным, если бы его удалось воспроизвести на уровне всего населения.

Как ИИ убеждает — и почему он может лгать

Исследования выявили технический механизм, стоящий за этим эффектом: адаптация диалога в сочетании с высокой плотностью аргументации. В отличие от рекламы, предлагающей несколько секунд визуальных образов и слоганов, чат-бот может анализировать рассуждения пользователя, разбирать возражения и предоставлять целенаправленные контраргументы, часто ссылаясь на факты или статистику. Такая интерактивная аргументация в реальном времени очень напоминает работу опытного агитатора или участника дебатов, что помогает объяснить, почему эти боты могут превосходить статичную рекламу в контролируемых условиях.

Однако здесь есть и обратная сторона. Группы исследователей последовательно отмечали, что убедительность коррелирует со снижением фактической точности. Когда от моделей требовали быть более убедительными, они начинали чаще использовать доказательства низкого качества и прямые выдумки. Одно из правдоподобных технических объяснений заключается в том, что модели исчерпывают высококачественные, хорошо задокументированные доказательства и начинают использовать более слабый или спекулятивный материал; другое — оптимизация под убеждение вознаграждает риторическую беглость выше достоверности. В любом случае результатом является класс инструментов, чьи самые сильные результаты также с наибольшей вероятностью вводят в заблуждение.

Асимметрия и ограничения реального мира

Важные оговорки смягчают громкие цифры заголовков. Эксперименты обычно проводились в концентрированных условиях, где добровольцы тратили несколько минут на сфокусированный политический диалог с ботом, а не в хаотичной экономике внимания с лентами соцсетей, группами друзей и мимолетными кликами. Исследователи и комментаторы указывают на то, что лабораторные эффекты могут преувеличивать то, что произойдет, когда люди будут случайно сталкиваться с ИИ в своей повседневной жизни.

Тем не менее, исследования обнажают два асимметричных риска. Во-первых, доступ и развертывание неравномерны. Предвыборные штабы, богатые игроки и иностранные государства, вероятно, получат ранний доступ к наиболее убедительным инструментариям, что может создать несправедливые преимущества. Во-вторых, предвзятость моделей может отражать партийную информационную среду: в опубликованных наборах данных исследователи обнаружили, что боты, выступающие за правые позиции, выдавали больше неточностей, вероятно, потому, что сами обучающие выборки содержат асимметричную дезинформацию.

Экономика и масштаб: насколько дешевым может стать убеждение?

Одним из наиболее тревожных расчетов в недавних аналитических комментариях является стоимость масштабирования. Используя цены на публичные API и консервативные предположения (о длине диалога и стоимости токенов), аналитики показали, что некий субъект может охватить десятки миллионов избирателей персонализированными чат-диалогами менее чем за миллион долларов. Эти расчеты являются приблизительными — стоимость моделей, пропускная способность, синтез голоса и каналы доставки добавляют сложности, — но они ясно дают понять, что автоматизированное индивидуальное убеждение уже вписывается в бюджет хорошо финансируемых кампаний, PAC (комитетов политических действий) или иностранных операций по оказанию влияния.

Ответные меры политики: лоскутное одеяло и пробелы

Регуляторные подходы неоднородны. Закон ЕС об ИИ (AI Act) прямо относит убеждение, связанное с выборами, к категории высокого риска и накладывает обязательства на системы, предназначенные для влияния на поведение избирателей. Напротив, федеральная политика США остается фрагментированной: законы о конфиденциальности, раскрытие информации в эфире и несколько законов штатов фокусируются на дипфейках или прозрачности рекламы, но не охватывают комплексно диалоговое убеждение на платформах и в офлайн-каналах. В США бремя контроля в основном легло на частные платформы; у этих компаний разные политики и стимулы, а инструментарии, находящиеся вне платформ или имеющие открытый исходный код, недоступны для их контроля.

Исследователи и политические аналитики предлагают многоуровневый ответ: (1) технические стандарты и проверяемое происхождение политических сообщений; (2) ограничения или более строгий контроль за предоставлением массовых вычислительных мощностей, которые могут быть использованы для проведения крупных кампаний по убеждению; (3) требования о раскрытии информации для систем, предназначенных для влияния на политические взгляды; и (4) международная координация, поскольку трансграничные кампании могут проводиться из юрисдикций со слабым надзором.

Дискуссия: тревога против нюансов

Исследователи, проводившие эксперименты по убеждению, отвечают, что обе точки зрения совместимы: технология демонстрирует высокую убедительность в жестко контролируемых взаимодействиях и, следовательно, заслуживает срочного внимания; в то же время реальный мир будет определять, как технологии используются на самом деле, и существуют осуществимые меры вмешательства. Задача политики состоит в том, чтобы повысить стоимость и сложность скрытого массового убеждения, одновременно допуская полезные способы использования: чат-боты кандидатов, разъясняющие политику, гражданские помощники, резюмирующие законопроекты, или инструменты журналистики, расширяющие доступ к информации.

Что кампании, платформы и регуляторы могут сделать сейчас

  • Требовать подтверждения происхождения и раскрытия информации для политических сообщений, включая диалоговых агентов, нацеленных на общественно-политические темы.
  • Обязать проводить независимые аудиты моделей и обеспечивать соблюдение правил платформ в отношении политически ориентированной автоматизации.
  • Ограничить внерыночный доступ к крупнейшим вычислительным стекам масштаба инференса, когда они используются для проведения кампаний по политическому убеждению, в сочетании с прозрачностью на рынках аренды GPU.
  • Финансировать мониторинг в общественных интересах и открытые наборы данных, чтобы независимые исследователи могли воспроизводить и оценивать заявления об эффективности убеждения.
  • Расширять цифровую грамотность и каналы информирования общественности, которые помогают избирателям проверять утверждения и перепроверять факты, полученные от ИИ.

В каком направлении должны двигаться исследования

Два исследовательских приоритета должны направлять политику: во-первых, повторные полевые эксперименты, измеряющие эффекты в естественных условиях (а не только в концентрированных лабораторных диалогах); во-вторых, системы измерения и мониторинга, которые обнаруживают скоординированные кампании убеждения в различных форматах и на разных платформах. Без лучшего, проверяемого доступа к данным — к библиотекам рекламы, логам платформ и происхождению моделей — политики будут устанавливать правила с одной завязанной за спиной рукой.

Недавние исследования служат тревожным звонком, который не является ни предвестником апокалипсиса, ни панацеей. Системы ИИ уже могут влиять на мнения мощными способами, и они делают это дешевле и гибче, чем более ранние инструменты цифрового убеждения. В то же время результаты зависят от человеческого выбора — какие субъекты развертывают инструменты, как настраиваются модели, какие правила и стандарты регулируют их использование и сможет ли гражданское общество создать инфраструктуру мониторинга, необходимую для выявления злоупотреблений. Решающий вопрос для демократий заключается в том, начнут ли институты действовать сейчас, чтобы сформировать этот выбор, или же следующие выборы станут лабораторией, где ответ будет написан голосами и сомнениями.

Источники

  • Nature (исследование об убеждении с помощью чат-ботов)
  • Science (исследование о LLM, оптимизированных для убеждения)
  • Cornell University (экспериментальные группы по ИИ и убеждению)
  • Massachusetts Institute of Technology (Дэвид Рэнд и соавторы)
  • Knight First Amendment Institute (анализ: "Don't Panic (Yet)")
James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q Насколько убедительны ИИ-чат-боты по сравнению с традиционной рекламой и о каких масштабах изменений сообщают исследования?
A Два флагманских исследования показали, что короткие диалоги с предвзятыми ИИ-чат-ботами могут менять мнения: в определенных лабораторных условиях сдвиг достигал середины 20-х баллов по 100-балльной шкале. В тестах в США перед выборами 2024 года сторонники Трампа сдвинулись примерно на 3.9 балла в сторону бота, поддерживающего Харрис, в то время как обратный сдвиг составил около 2.3 балла; в Канаде и Польше наблюдались более значительные сдвиги — до 10 баллов.
Q Какой механизм обеспечивает эффективность убеждения с помощью ИИ и какой компромисс наблюдается в плане точности?
A Исследователи связывают этот эффект с адаптацией разговора под собеседника в сочетании с высокой плотностью аргументации: чат-бот может считывать логику пользователя, разбивать возражения и приводить точечные контраргументы, выборочно цитируя источники. Эта интерактивная аргументация в реальном времени напоминает работу опытного агитатора, что помогает объяснить высокую эффективность по сравнению со статической рекламой. Однако стремление к убеждению повышает риск снижения фактической точности.
Q Какие реальные ограничения и закономерности рисков выявляют эти исследования?
A Лабораторные результаты сопровождаются важными оговорками: исследования проводились в заданных контролируемых условиях с фокусом на диалоге, а не в хаотичной «экономике внимания» новостных лент и случайных взаимодействий. Результаты указывают на асимметричные риски: более ранний доступ для политических кампаний и иностранных акторов, а также предвзятость, отражающую партийную информационную среду. Боты правого толка, как правило, допускали больше неточностей, что подчеркивает проблемы с обучающими данными и дезинформацией.
Q Как выглядят ответные меры в области политики и чем отличаются подходы ЕС и США?
A Ответные меры описываются как фрагментарные и полные пробелов. «Закон об ИИ» Европейского союза рассматривает убеждение, связанное с выборами, как деятельность с высоким уровнем риска и налагает обязательства на системы, предназначенные для влияния на поведение избирателей. Напротив, политика США остается фрагментированной: законы о конфиденциальности, правила раскрытия информации и прозрачности рекламы не охватывают в полной мере убеждение через диалог на различных платформах или в офлайн-каналах. Правоприменение в основном легло на плечи частных платформ, в то время как инструменты с открытым исходным кодом остаются вне их досягаемости.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!