Безымянный сотрудник и автоматизированное оскорбление

ИИ
The Unnamed Staffer and the Automated Slur
Реакция Барака Обамы на расистское видео, созданное нейросетью и опубликованное Дональдом Трампом, обнажает растущий разрыв между правилами модерации платформ и техническими реалиями синтетического медиаконтента.

Защита Дональда Трампа в связи с расистским видеороликом, созданным с помощью ИИ, который он опубликовал в феврале — на нем Барак и Мишель Обама были изображены в виде обезьян, — строится на удивительно удобной формальности: он утверждает, что посмотрел только начало. Выступая на борту Air Force One вскоре после того, как пост был удален, президент заявил журналистам, что первые несколько секунд показались ему «нормальными» и что никто из его окружения не осознал, чем заканчивается ролик, прежде чем его увидели миллионы пользователей Truth Social. Это классическое оправдание современной эпохи: пользователь винит алгоритм, администрация — «неназванного сотрудника», а сама технология остается «черным ящиком», не несущим никакой ответственности.

В понедельник Барак Обама наконец нарушил молчание по этому поводу в интервью журналу The New Yorker. Его ответ был предсказуемо сдержанным, представляя собой мастер-класс по политике «высокого пути», которая определяла его президентство, но при этом содержал резкую критику текущего состояния цифрового этикета. Хотя он заявил, что не принимает личные оскорбления близко к сердцу, он провел жесткую черту, когда дело коснулось его семьи. «Меня всегда задевает, когда в подобные вещи втягивают мою жену и детей, потому что они этого не выбирали», — сказал Обама. Но помимо личной обиды, он указал на более глубокое системное гниение: превращение политического дискурса из дебатов о политике в то, что он описал как «клоунаду», подпитываемую социальными сетями и синтетической жестокостью.

Техническая архитектура правдоподобного отрицания

Чтобы понять, как созданное нейросетями видео, где бывшая первая пара представлена в виде обезьян, попадает в ленту действующего президента, нужно взглянуть на разрушающуюся инфраструктуру модерации контента. В традиционном медиапространстве видео, содержащее столь явный расистский троп, прошло бы через множество уровней юридической и редакционной проверки. В эпоху Truth Social и генеративного ИИ весь этот рабочий процесс был заменен единственной кнопкой «поделиться». Утверждение Белого дома о том, что сотрудник «ошибочно» загрузил видео, подчеркивает полное отсутствие внутренних предохранителей для синтетического медиаконтента.

Это не просто ошибка в суждении; это провал метаданных. Большинство крупных технологических компаний, особенно тех, что базируются в Европе или придерживаются стандартов C2PA (Коалиция за происхождение и подлинность контента), пытаются внедрить «пищевые этикетки» в контент, созданный ИИ. Эти цифровые водяные знаки призваны сообщать платформе, что именно содержит файл и откуда он взялся, еще до того, как пользователь нажмет кнопку воспроизведения. Однако Truth Social действует в условиях нормативного вакуума, где такая техническая подотчетность рассматривается как посягательство на свободу слова. Когда Трамп говорит, что не видел финала, он эксплуатирует тот факт, что наши цифровые инструменты разработаны для скорости, а не для контекста.

Само видео, в котором головы Обамы были наложены на тела обезьян, танцующих под «The Lion Sleeps Tonight», является примитивной формой дипфейка. Для его создания не требуется суперкомпьютер или спецслужбы государственного уровня; достаточно потребительской видеокарты и нескольких минут обучения на модели с открытым исходным кодом. Эта демократизация «цифрового убийства» — именно то, что Закон ЕС об ИИ пытался смягчить с помощью строгих требований к прозрачности. В Брюсселе фокус давно смещен на разработчика модели — обеспечение того, чтобы само программное обеспечение имело встроенные блокировки против генерации ненавистнических высказываний. Во Флориде и Вашингтоне фокус остается на постфактум-очистке, стратегии, которая становится все более тщетной.

Существует ли «высокий путь» в синтетической экосистеме?

Настаивание Обамы на порядочности, вежливости и доброте кажется посланием из другого века. «Кажется, нет никакого стыда среди людей, которые раньше считали, что нужно соблюдать хоть какой-то приличия», — сказал он The New Yorker. Но приличия — это человеческая черта; алгоритмы оптимизированы для вовлеченности. Расистский троп, использованный в видео, не был случайностью обучающих данных ИИ; это был осознанный выбор создателя, чтобы задеть определенный исторический нерв. ИИ лишь обеспечил эффективность реализации.

Есть особая ирония в обеспокоенности Обамы тем, что ИИ используется для того, чтобы относиться к войне «как к видеоигре». Он ссылается на другую серию публикаций Белого дома времен Трампа, где синтетические изображения использовались для стилизации военных действий против Ирана. Для бывшего президента, который был пионером использования беспилотников — шаг, который часто критиковали за его клинический, отстраненный характер, — переход к буквально геймифицированным военным образам является логическим, пусть и гротескным, завершением. Мы движемся к политической реальности, где визуальные свидетельства полностью оторваны от физической реальности. Если президент может опубликовать сгенерированное ИИ фото себя с голым торсом у Мемориала Линкольна — как недавно сделал Трамп, — а затем выложить расистский дипфейк на своего предшественника, само понятие «факт» начинает растворяться.

Реакция внутри Республиканской партии оказалась показательно расколотой. В то время как такие фигуры, как Тим Скотт, назвали это видео «самым расистским», что они когда-либо видели, официальная линия Белого дома, озвученная Кэролайн Ливитт, списала возмущение на «фальшивый гнев». Это внутреннее напряжение раскрывает партию, пытающуюся примирить традиционные консервативные ценности с тоталитарными требованиями цифрового популистского движения. Для администрации Трампа ИИ-видео — это не ошибка, за которую нужно искупать вину; это стресс-тест для остатков способности общества испытывать шок.

Брюссельский эффект и пределы суверенитета

Пока Соединенные Штаты заперты в цикле партийных распрей по поводу этих инцидентов, европейские регуляторы наблюдают за происходящим с растущей тревогой. Закон ЕС об ИИ, который недавно вступил в полную силу, был разработан именно для предотвращения промышленного производства контента подобного рода. Европейское право требует, чтобы любая система ИИ, способная создавать вводящий в заблуждение контент, проектировалась с учетом возможности его обнаружения. Если бы это видео было произведено или размещено европейской организацией, штрафы измерялись бы процентами от мирового оборота.

Однако инцидент с Обамой и Трампом демонстрирует пределы регионального регулирования в глобализированной экономике данных. Truth Social не стремится к европейской аудитории, а ее серверы не находятся во Франкфурте или Париже. Это создает регуляторную гавань, где самые токсичные приложения генеративного ИИ могут инкубироваться, а затем экспортироваться через глобальный интернет. Немецкие законы о цепочках поставок и законы о цифровой безопасности (NetzDG) часто приводятся в пример как модели очистки сети, но они бессильны против действующего президента США, который утверждает, что не смотрел вторую половину файла, которым поделился со всем миром.

То, что мы наблюдаем, — это появление «ИИ-суверенитета» как инструмента политической войны. Когда правительство может генерировать свою собственную реальность — от героических портретов с голым торсом до дегуманизирующих карикатур на оппонентов, — ему больше не нужно взаимодействовать с традиционной прессой или существующей доказательной базой. «Неназванный сотрудник» — это не человек; это призрак в машине, удобная фикция, позволяющая получать выгоду от вирального оскорбления без ответственности за его авторство.

Нормализация цифрового цирка

Как отметил Обама, большинство американцев, возможно, все еще верят в порядочность, но не они обучают модели. Технический барьер для входа в этот вид цифрового преследования исчез. Мы живем в эпоху, когда стоимость создания расистского тропа практически равна нулю, в то время как стоимость его разоблачения, судебных разбирательств или «следования высокому пути» остается высокой.

Отказ Белого дома извиниться — пожалуй, самая честная часть всей этой саги. Извиниться — значит признать, что президент несет ответственность за содержание собственного цифрового присутствия. По мнению нынешней администрации, президент — лишь проводник более широкой, ничем не опосредованной «правды», даже когда эта правда является синтетической ложью, сгенерированной сторонним приложением. Сотрудник не совершил ошибку; он идеально выполнил свою функцию, создав заголовок, который доминировал в новостном цикле в течение недели, заставляя оппозицию защищать свое достоинство, пока администрация переходила к следующему отвлекающему маневру.

У Европы есть правила. У Вашингтона — театр. Еще предстоит увидеть, осталась ли у кого-то еще правда.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Каким образом технически было создано расистское видео с участием Обамы, сгенерированное искусственным интеллектом?
A В видео использовалась примитивная технология дипфейка, при которой головы Барака и Мишель Обамы были наложены на другие тела. Этот тип синтетического медиаконтента не требует передовых правительственных технологий; напротив, его можно создать с помощью графического процессора потребительского уровня и нескольких минут обучения на базе ИИ с открытым исходным кодом. Такая демократизация инструментов позволяет создавать вводящий в заблуждение и вредоносный контент людям с минимальными техническими знаниями или финансовыми вложениями.
Q Какие технические стандарты разрабатываются для идентификации синтетического медиаконтента?
A Крупные технологические компании все чаще внедряют стандарты C2PA, которые действуют как цифровые этикетки или водяные знаки для медиафайлов. Эти инструменты встраивают метаданные непосредственно в файлы для отслеживания происхождения и подлинности контента, информируя платформы об источнике файла до того, как он будет распространен. Однако на некоторых платформах отсутствуют такие внутренние защитные механизмы, что позволяет синтетическому контенту распространяться без прозрачности или требований к обнаружению, которые приняты в более строго регулируемых цифровых средах.
Q Чем подход Европейского союза к регулированию ИИ отличается от текущей практики в США?
A Закон ЕС об искусственном интеллекте сосредоточен на превентивной прозрачности, обязывая разработчиков моделей ИИ создавать блокировки против разжигания ненависти и гарантировать, что вводящий в заблуждение контент легко обнаруживается. Согласно этим законам, организации могут столкнуться с крупными штрафами, исчисляемыми от их мирового оборота, в случае несоблюдения требований. В отличие от этого, Соединенные Штаты в настоящее время больше полагаются на последующую очистку и добровольную модерацию со стороны отдельных платформ — стратегия, которая часто не предотвращает промышленное производство и быстрое распространение синтетического медиаконтента.
Q Какие опасения выразил Барак Обама по поводу использования ИИ в политическом дискурсе?
A Барак Обама раскритиковал переход от дебатов, основанных на политических программах, к среде, движимой социальными сетями, которую он назвал «шоу клоунов». Он подчеркнул утрату цифрового приличия и выразил особую обеспокоенность по поводу использования синтетического контента против членов семьи. Кроме того, он отметил, что отстраненность, вызванная ИИ, отражает клинический характер атак с использованием беспилотников, предупреждая, что эти инструменты рискуют превратить серьезные геополитические действия и визуальную летопись реальности в нечто, напоминающее видеоигру.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!