Переломный момент в политических кампаниях
На этой неделе (5 декабря 2025 года) в научных журналах и технологических СМИ были опубликованы два крупных рецензируемых исследования и ряд последующих анализов с одним и тем же тревожным выводом: короткие беседы с ИИ-чат-ботами могут влиять на мнение избирателей. В статьях, опубликованных в Nature и Science под руководством групп исследователей из Корнелла и MIT, сообщается, что один короткий диалог с предвзятым чат-ботом менял общественное мнение в масштабах, превышающих типичный эффект от телевизионной или цифровой политической рекламы. В некоторых экспериментальных условиях модели, оптимизированные для убеждения, сдвигали отношение на два десятка процентных пунктов и более; в реальных опросах медианные сдвиги составили несколько пунктов, иногда до десяти.
Эти показатели важны, поскольку исход современных выборов часто решается с небольшим отрывом. Они важны, потому что модели, которые сильнее всего меняли мнение, также неоднократно оказывались моделями, генерирующими самые неточные утверждения. И они важны, потому что технологии, способные автоматизировать кампанию индивидуального убеждения, уже существуют: дешевые вычислительные мощности, модели с открытыми весами, синтез голоса и видео, а также каналы распространения в популярных приложениях и частных мессенджерах. Вкратце, по словам исследователей, наступила эра, когда ИИ может систематически убеждать избирателей в массовом масштабе — и мы только начинаем осознавать, что это значит.
Новые эксперименты, четкие закономерности
В двух флагманских исследованиях использовались разные подходы, но были обнаружены схожие закономерности. В одном исследовании ученые провели контролируемые беседы с более чем 2300 участниками из США за два месяца до президентских выборов 2024 года. Чат-боты, специально настроенные на поддержку одного из главных кандидатов, склоняли некоторых избирателей на несколько пунктов в сторону фаворита; в ходе тестирования в США сторонники Трампа сместились примерно на 3,9 пункта в сторону бота, поддерживающего Харрис, в то время как обратное движение составило примерно 2,3 пункта. В других национальных тестах — в Канаде и Польше — эффект был более значительным: некоторые оппозиционные избиратели меняли свою позицию примерно на 10 пунктов.
Дополнительный, гораздо более масштабный анализ охватил 19 языковых моделей и почти 77 000 участников из Великобритании по сотням вопросов для голосования. Самый агрессивный процесс убеждения — дать модели команду систематизировать факты, а затем дообучить ее на убеждающих диалогах — привел к самым значительным сдвигам во взглядах. Один прототип, оптимизированный для убеждения, в лабораторных условиях продемонстрировал сдвиги около 25 пунктов по 100-балльной шкале согласия. Подобный масштаб эффекта был бы экстраординарным, если бы его удалось воспроизвести на уровне всего населения.
Как ИИ убеждает — и почему он может лгать
Исследования выявили технический механизм, стоящий за этим эффектом: адаптация диалога в сочетании с высокой плотностью аргументации. В отличие от рекламы, предлагающей несколько секунд визуальных образов и слоганов, чат-бот может анализировать рассуждения пользователя, разбирать возражения и предоставлять целенаправленные контраргументы, часто ссылаясь на факты или статистику. Такая интерактивная аргументация в реальном времени очень напоминает работу опытного агитатора или участника дебатов, что помогает объяснить, почему эти боты могут превосходить статичную рекламу в контролируемых условиях.
Однако здесь есть и обратная сторона. Группы исследователей последовательно отмечали, что убедительность коррелирует со снижением фактической точности. Когда от моделей требовали быть более убедительными, они начинали чаще использовать доказательства низкого качества и прямые выдумки. Одно из правдоподобных технических объяснений заключается в том, что модели исчерпывают высококачественные, хорошо задокументированные доказательства и начинают использовать более слабый или спекулятивный материал; другое — оптимизация под убеждение вознаграждает риторическую беглость выше достоверности. В любом случае результатом является класс инструментов, чьи самые сильные результаты также с наибольшей вероятностью вводят в заблуждение.
Асимметрия и ограничения реального мира
Важные оговорки смягчают громкие цифры заголовков. Эксперименты обычно проводились в концентрированных условиях, где добровольцы тратили несколько минут на сфокусированный политический диалог с ботом, а не в хаотичной экономике внимания с лентами соцсетей, группами друзей и мимолетными кликами. Исследователи и комментаторы указывают на то, что лабораторные эффекты могут преувеличивать то, что произойдет, когда люди будут случайно сталкиваться с ИИ в своей повседневной жизни.
Тем не менее, исследования обнажают два асимметричных риска. Во-первых, доступ и развертывание неравномерны. Предвыборные штабы, богатые игроки и иностранные государства, вероятно, получат ранний доступ к наиболее убедительным инструментариям, что может создать несправедливые преимущества. Во-вторых, предвзятость моделей может отражать партийную информационную среду: в опубликованных наборах данных исследователи обнаружили, что боты, выступающие за правые позиции, выдавали больше неточностей, вероятно, потому, что сами обучающие выборки содержат асимметричную дезинформацию.
Экономика и масштаб: насколько дешевым может стать убеждение?
Одним из наиболее тревожных расчетов в недавних аналитических комментариях является стоимость масштабирования. Используя цены на публичные API и консервативные предположения (о длине диалога и стоимости токенов), аналитики показали, что некий субъект может охватить десятки миллионов избирателей персонализированными чат-диалогами менее чем за миллион долларов. Эти расчеты являются приблизительными — стоимость моделей, пропускная способность, синтез голоса и каналы доставки добавляют сложности, — но они ясно дают понять, что автоматизированное индивидуальное убеждение уже вписывается в бюджет хорошо финансируемых кампаний, PAC (комитетов политических действий) или иностранных операций по оказанию влияния.
Ответные меры политики: лоскутное одеяло и пробелы
Регуляторные подходы неоднородны. Закон ЕС об ИИ (AI Act) прямо относит убеждение, связанное с выборами, к категории высокого риска и накладывает обязательства на системы, предназначенные для влияния на поведение избирателей. Напротив, федеральная политика США остается фрагментированной: законы о конфиденциальности, раскрытие информации в эфире и несколько законов штатов фокусируются на дипфейках или прозрачности рекламы, но не охватывают комплексно диалоговое убеждение на платформах и в офлайн-каналах. В США бремя контроля в основном легло на частные платформы; у этих компаний разные политики и стимулы, а инструментарии, находящиеся вне платформ или имеющие открытый исходный код, недоступны для их контроля.
Исследователи и политические аналитики предлагают многоуровневый ответ: (1) технические стандарты и проверяемое происхождение политических сообщений; (2) ограничения или более строгий контроль за предоставлением массовых вычислительных мощностей, которые могут быть использованы для проведения крупных кампаний по убеждению; (3) требования о раскрытии информации для систем, предназначенных для влияния на политические взгляды; и (4) международная координация, поскольку трансграничные кампании могут проводиться из юрисдикций со слабым надзором.
Дискуссия: тревога против нюансов
Исследователи, проводившие эксперименты по убеждению, отвечают, что обе точки зрения совместимы: технология демонстрирует высокую убедительность в жестко контролируемых взаимодействиях и, следовательно, заслуживает срочного внимания; в то же время реальный мир будет определять, как технологии используются на самом деле, и существуют осуществимые меры вмешательства. Задача политики состоит в том, чтобы повысить стоимость и сложность скрытого массового убеждения, одновременно допуская полезные способы использования: чат-боты кандидатов, разъясняющие политику, гражданские помощники, резюмирующие законопроекты, или инструменты журналистики, расширяющие доступ к информации.
Что кампании, платформы и регуляторы могут сделать сейчас
- Требовать подтверждения происхождения и раскрытия информации для политических сообщений, включая диалоговых агентов, нацеленных на общественно-политические темы.
- Обязать проводить независимые аудиты моделей и обеспечивать соблюдение правил платформ в отношении политически ориентированной автоматизации.
- Ограничить внерыночный доступ к крупнейшим вычислительным стекам масштаба инференса, когда они используются для проведения кампаний по политическому убеждению, в сочетании с прозрачностью на рынках аренды GPU.
- Финансировать мониторинг в общественных интересах и открытые наборы данных, чтобы независимые исследователи могли воспроизводить и оценивать заявления об эффективности убеждения.
- Расширять цифровую грамотность и каналы информирования общественности, которые помогают избирателям проверять утверждения и перепроверять факты, полученные от ИИ.
В каком направлении должны двигаться исследования
Два исследовательских приоритета должны направлять политику: во-первых, повторные полевые эксперименты, измеряющие эффекты в естественных условиях (а не только в концентрированных лабораторных диалогах); во-вторых, системы измерения и мониторинга, которые обнаруживают скоординированные кампании убеждения в различных форматах и на разных платформах. Без лучшего, проверяемого доступа к данным — к библиотекам рекламы, логам платформ и происхождению моделей — политики будут устанавливать правила с одной завязанной за спиной рукой.
Недавние исследования служат тревожным звонком, который не является ни предвестником апокалипсиса, ни панацеей. Системы ИИ уже могут влиять на мнения мощными способами, и они делают это дешевле и гибче, чем более ранние инструменты цифрового убеждения. В то же время результаты зависят от человеческого выбора — какие субъекты развертывают инструменты, как настраиваются модели, какие правила и стандарты регулируют их использование и сможет ли гражданское общество создать инфраструктуру мониторинга, необходимую для выявления злоупотреблений. Решающий вопрос для демократий заключается в том, начнут ли институты действовать сейчас, чтобы сформировать этот выбор, или же следующие выборы станут лабораторией, где ответ будет написан голосами и сомнениями.
Источники
- Nature (исследование об убеждении с помощью чат-ботов)
- Science (исследование о LLM, оптимизированных для убеждения)
- Cornell University (экспериментальные группы по ИИ и убеждению)
- Massachusetts Institute of Technology (Дэвид Рэнд и соавторы)
- Knight First Amendment Institute (анализ: "Don't Panic (Yet)")
Comments
No comments yet. Be the first!