Технологии, способные подорвать американскую демократию

Технологии
The Tech That Could Break U.S. Democracy
Бурное развитие мощного ИИ, концентрация цифровых платформ и государственное давление на бизнес обнажают уязвимости американских институтов. Эксперты предупреждают: эта технологическая волна — от массированных кампаний дезинформации до принуждения ИИ-компаний со стороны властей — способна трансформировать механизмы принятия демократических решений.

Этот момент: почему фраза «american democracy know might» важна сейчас

9 марта заголовок популярного подкаста ввел в общественную дискуссию фразу, призванную шокировать: american democracy know might. Это стало кратким обозначением новой, острой тревоги — того, что группа технологий, созданных для автоматизации речи, изображений и принятия решений, развивается быстрее, чем институты, поддерживающие честность общественной жизни. В эпизоде принял участие Дин Болл (Dean Ball), технологический обозреватель, который в прошлом году занимал должность старшего советника по политике в области ИИ в Белом доме; в качестве вступительной сцены была использована недавняя конфронтация между американскими оборонными заказчиками и частными ИИ-лабораториями.

Споры по контрактам между Пентагоном и известными лабораториями, а также решение ведомства классифицировать одного из поставщиков как «риск для цепочки поставок», вызвали ответную реакцию как внутри правительства, так и за его пределами. Для людей, обеспокоенных демократическими нормами, у этой истории есть две взаимосвязанные стороны: способность влиятельных игроков фабриковать или наводнять информационную среду убедительным фальшивым контентом и способность государства оказывать давление на частные компании, используя маркировки национальной безопасности и рычаги государственных закупок. Обе тенденции, как отметили слушатели и эксперты шоу, указывают на то, насколько хрупким стал фундамент из общих фактов, на котором зиждется демократический выбор.

american democracy know might — противостояние с Anthropic и то, что выявляет государственное давление

Спор о роли крупной ИИ-лаборатории в государственных контрактах является поучительным примером. Переговоры между оборонным заказчиком и ведущей исследовательской лабораторией недавно зашли в тупик, и официальные лица классифицировали лабораторию как риск для цепочки поставок — категория, обычно резервируемая для иностранных фирм, подозреваемых в шпионаже. Этот шаг вызвал тревогу среди экспертов по политике, которые рассматривают такую маркировку как равносильную государственной угрозе: примите наши условия или потеряйте доступ к контрактам и партнерам. Как выразился Дин Болл в подкасте, такая динамика может ощущаться как почти тираническое вмешательство государства в деятельность частного предприятия.

Почему это важно для демократии? Потому что, когда правительства могут выборочно отсекать фирму, когда регуляторные статусы могут применяться с политической дискреционной силой, коммерческие гейткиперы могут стать де-факто инструментами политической власти. Это вдвойне верно для высококонцентрированных рынков: горстка лабораторий и производителей чипов поставляет большую часть вычислительных мощностей, моделей и хостинга, необходимых современному ИИ. Когда закупочное давление, экспортный контроль или неформальные санкции используются без четких, надежных защитных механизмов и независимого надзора, это меняет стимулы для компаний и варианты, доступные как гражданам, так и политикам.

Эти стимулы имеют значение. Если политика подталкивает лаборатории скрывать защитные барьеры или ускорять релизы ради сохранения государственных заказов, или, наоборот, если фирмы отказываются от мер по защите общественных интересов ради удержания коммерческих клиентов, способность демократии разрешать политические конфликты на основе общих доказательств деградирует. Это не гипотетическая ситуация; это происходит сегодня в залах заседаний советов директоров и в отделах закупок, и это определяет то, кто пишет правила и кто получает от них выгоду.

american democracy know might — дезинформация, дипфейки и «миннесотский тест»

В то же время информационная экосистема проходит проверку на другом фронте: на достоверность. Ранее в этом году видеосвидетельства насильственных инцидентов с участием федеральных агентов в одном из городов США вызвали общенациональный резонанс, поскольку кадры явно противоречили официальным описаниям. Этот эпизод, в котором широко разошедшиеся записи помогли опровергнуть заявления правительства, продемонстрировал стабилизирующую силу четких, общих доказательств. Но он также высветил хрупкость этого стабилизатора.

Почему хрупкость? Потому что те же системы машинного обучения теперь позволяют дешево и быстро создавать синтетическое видео, аудио и изображения, которые выглядят и звучат аутентично. Исследователи предупреждают о скоординированных, управляемых ИИ «роях дезинформации», способных насыщать социальные платформы множеством слегка отличающихся ложных нарративов, подавляя нормальные процессы проверки. Если будущие инциденты будут сопровождаться не одним недвусмысленным роликом, а десятками правдоподобных, но противоречивых версий, общественность может прийти к выводу, что истина непознаваема, и доверить суждение тому авторитетному источнику, которому они доверяют больше всего — именно к такому сценарию сбоя стремятся авторитарные игроки.

Экономика нарративов: хайп вокруг ИИ, «пузыри» и политический риск

Эта экономика сторителлинга создает политические побочные эффекты. Переоцененные фирмы и знаменитые основатели приковывают к себе чрезмерное внимание; поглощения и смены владельцев СМИ концентрируют контроль над распространением информации и редакционную власть. Когда компании, обещающие обеспечивать завтрашний общественный дискурс, оказываются в руках политически ангажированных олигархов или когда один производитель чипов составляет значительную долю рыночных индексов, колебания на рынках частного капитала могут рикошетом бить по общественным институтам. А в условиях кризиса те, кто контролирует каналы распространения и вычислительные мощности, могут определять, какие нарративы выживут, а какие погибнут.

Рычаги политики и технологические меры защиты

Ничто из этого не является неизбежным. Существуют конкретные шаги, которые могут снизить риск того, что технологии переиграют демократию. Технические меры включают надежные системы подтверждения происхождения — криптографические подписи, прослеживаемые метаданные контента и форензик-ватермаркинг для синтетических медиа — чтобы фотографии, видео и результаты работы моделей несли проверяемую информацию об источнике. Стандарты подтверждения происхождения требуют международной координации и независимой проверки, чтобы быть эффективными.

Регуляторные и гражданские меры также важны. Платформы должны быть обязаны раскрывать алгоритмические стимулы и предоставлять отчеты о прозрачности в отношении продвижения контента, особенно во время выборов. Органы по закупкам и национальной безопасности должны принять четкие, публичные правила при маркировке фирм или ограничении доступа, и эти действия должны подлежать судебному или конгрессному надзору для предотвращения политизированного принуждения. Инвестиции в местную журналистику и общественную инфраструктуру проверки фактов — финансируемые и юридически защищенные от захвата — укрепят общественный фундамент проверяемых фактов.

Наконец, устойчивость является социальной в той же мере, в какой и технической. Кампании по медиаграмотности, лучшее финансирование операций по проверке фактов, правила ограничения микротаргетированной политической рекламы и двухпартийные соглашения о цифровом поведении во время выборов могут притупить эффекты алгоритмического манипулирования. Создание этих систем потребует межсекторального сотрудничества правительств, органов по стандартизации, исследовательских институтов и гражданского общества — и срочного внимания, поскольку соответствующие технологии продолжают ускоряться.

Куда мы движемся дальше

Технологии всегда смещали баланс между частной властью и общественной подотчетностью. Текущий момент отличается тем, что три мощные силы сходятся воедино: генеративный ИИ, способный фабриковать убедительные доказательства, платформы, способные масштабно усиливать и таргетировать контент, и политические игроки, готовые использовать в качестве оружия как нарративы, так и институциональные рычаги. Именно из-за этой комбинации люди говорят american democracy know might — это краткое обозначение столкновения между быстрыми технологическими изменениями и более медленными, слабыми механизмами демократического восстановления.

Но есть повод для деятельного оптимизма: те же инструменты, которые облегчают обман, могут быть использованы для верификации; институты, которые могут быть захвачены, могут быть также реформированы и защищены. Этот выбор является политическим и техническим, и он будет приниматься в залах заседаний, залах суда и парламентах так же часто, как и в исследовательских лабораториях. Самой важной работой в ближайшее десятилетие станет создание общественной инфраструктуры и правовых барьеров, которые сделают разрушение общей почвы, необходимой демократии, дорогостоящим, видимым и рискованным процессом.

Источники

  • Science (исследовательская работа о роях дезинформации, управляемых ИИ)
  • Pew Research Center (анализ энергопотребления и инфраструктуры центров обработки данных)
  • Deutsche Bank (отчет о рыночных рисках ИИ и коррекциях)
  • MIT Sloan (анализ и комментарии к нарративам в индустрии ИИ)
  • Bank of England (технический отчет о рыночных уязвимостях)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Как технологии могут угрожать американской демократии в ближайшее десятилетие?
A Технологии могут угрожать американской демократии в ближайшее десятилетие посредством современных систем слежки, таких как распознавание лиц, дипфейков, манипуляций данными и дезинформации на базе ИИ, которые подрывают общественное доверие и способствуют иностранному вмешательству. Алгоритмы социальных сетей усиливают поляризацию, создавая «эхо-камеры» и продвигая экстремальный контент, в то время как хрупкая цифровая инфраструктура подвержена риску взломов и манипуляций с голосами. Эксперты предсказывают ухудшение ситуации до того, как она начнет улучшаться, если не будут предприняты меры по регулированию.
Q Какие технологии представляют наибольшую угрозу для выборов и демократических процессов в США?
A Наибольшие риски исходят от ИИ, позволяющего создавать дипфейки, интеллектуальных ботов и манипулятивный контент; алгоритмов социальных сетей, способствующих поляризации и дезинформации; и технологий наблюдения, таких как распознавание лиц для контроля толпы и нарушения приватности. Киберуязвимости в системах голосования и инфраструктуре позволяют государственным субъектам осуществлять манипуляции, в то время как технологические миллиардеры централизуют власть вопреки демократическим нормам. Эти тенденции включают цифровое искажение когнитивных способностей, апатию по отношению к реальности и превращение информационной среды в оружие.
Q Могут ли алгоритмы социальных сетей и дезинформация влиять на результаты выборов?
A Да, алгоритмы социальных сетей и дезинформация могут влиять на результаты выборов, изолируя мнения в «эхо-камерах», усиливая экстремальный и жестокий контент с помощью ботов и подрывая доверие к избирательным процессам. ИИ усугубляет это за счет дипфейков и адресной дезинформации, что затрудняет обнаружение и увеличивает поляризацию. Отсутствие ответственности платформ привело к упадку демократического дискурса и снижению активности маргинализированных групп населения.
Q Какие шаги можно предпринять для защиты демократии от технологических угроз?
A Среди возможных шагов — принятие Конгрессом защитных законов о конфиденциальности и слежке, введение нормативных ограничений для ИИ и платформ в целях обеспечения подотчетности, а также разработка контрмер против ботов и дезинформации при сохранении баланса со свободой слова. Технологические компании должны уделять приоритетное внимание безопасности при внедрении ИИ, восстанавливать команды по обеспечению доверия и безопасности и проектировать технологии так, чтобы они служили демократическим ценностям. Международное сотрудничество может противостоять авторитарным технологическим достижениям.
Q Опасен ли ИИ для демократии, и если да, то как можно создать защитные механизмы?
A Да, ИИ представляет опасность для демократии, генерируя дипфейки, ботов и ошибочные политические решения, централизуя власть в немногих руках, увеличивая риски для конфиденциальности и позволяя проводить манипуляции, которые разрушают доверие и идеологии. Меры защиты включают тщательное тестирование безопасности перед внедрением, прозрачное регулирование, этичное управление со стороны правительств и гражданского общества, а также поощрение конкуренции во избежание доминирования технологических гигантов. Баланс между инновациями и демократическими ценностями требует проактивной политики, такой как ограничение чрезмерного влияния частного сектора.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!