Хинтон предупреждает: ИИ может разрушить общество

Hinton Warns AI Could Break Society
В ходе дискуссии в Джорджтаунском университете пионер ИИ Джеффри Хинтон представил мрачный прогноз: стремительное внедрение искусственного интеллекта может привести к массовым увольнениям, дестабилизации политики и снижению порога для начала автоматизированных войн. Его предупреждения обостряют дискуссию о том, успеет ли государственная политика адаптироваться к развитию технологий.

Почему один из создателей ИИ считает, что цивилизация может пошатнуться

Джеффри Хинтон — ключевая фигура в развитии глубокого обучения — на открытой дискуссии в рамках университетского форума описал сценарий, которого многие в технологической сфере предпочитают избегать: массовая безработица, ослабление демократической подотчетности и дестабилизация международной безопасности из-за автономных систем. Его выступление было отчасти критикой политики, отчасти сигналом тревоги; оно обострило давние опасения по поводу того, как экономика и государственное устройство, рассчитанные на человеческий труд, справятся с масштабным замещением этого труда.

Суть сказанного Хинтоном простыми словами

Его основной тезис был простым и суровым: если ИИ достигнет или превзойдет человеческий уровень компетенций в достаточно широких масштабах, рабочие места, которые сейчас занимают люди, могут быть автоматизированы без появления очевидных новых ролей взамен. По его словам, люди, потерявшие работу, могут не найти новую, что способно подорвать потребление и социальную сплоченность в масштабах всей страны. Этот аргумент связывает наблюдаемый технический прогресс с социальной петлей обратной связи: сокращение числа оплачиваемых работников ведет к уменьшению числа покупателей товаров и услуг, что, в свою очередь, подрывает рыночный фундамент многих предприятий.

Из лаборатории — к социальным рискам

Репутация Хинтона здесь имеет решающее значение: он помогал создавать нейросетевые методы, лежащие в основе современных генеративных моделей. Такой послужной список придает его предостережениям особый вес, поскольку они исходят от человека, понимающего как инженерную сторону вопроса, так и траекторию исследований. Ранее он заявлял, что появление ИИ общего назначения на человеческом уровне — это более близкая перспектива, чем он считал прежде, и публично рассуждал об экзистенциальных угрозах, которые когда-то казались маргинальными. Эти прежние оценки определили тон его выступления в университете — смесь технического прогноза и социального предупреждения.

Как коллапс может выглядеть на практике

Хинтон описал ряд механизмов, которые могут усиливать друг друга. Экономическое вытеснение может привести к концентрации богатства у владельцев ИИ и мощностей по производству чипов, что снизит широкий потребительский спрос. Политическим институтам может быть трудно адаптироваться в условиях эрозии налоговой базы и ощущения заброшенности у значительной части населения. В сфере безопасности он утверждал, что автоматизация применения силы — летальные системы, работающие с ограниченным контролем со стороны человека — может снизить «политическую цену» использования военной мощи, делая конфликты более стремительными и трудноуправляемыми. В совокупности эти динамики создают риск системного краха, а не просто отдельных сбоев.

Согласны не все, а доказательства неоднозначны

Сценарий Хинтона вызывает споры. Некоторые эксперты указывают на то, что предыдущие технологические революции уничтожали одни рабочие места, создавая другие, и история знает множество примеров успешной адаптации. В нынешней волне автоматизации многие попытки заменить людей полуавтономными агентами столкнулись с практическими ограничениями: системы пасуют перед сложными нестандартными случаями, вопросами безопасности и стимулами, сохраняющими контроль человека в системе. Тем не менее, в новых академических работах высказывается аргумент в пользу иного типа риска: даже постепенные, инкрементальные улучшения могут подорвать человеческий контроль над крупными системами незаметно, но в конечном счете фундаментально. Суть не в неизбежности краха, а в том, что пути к серьезному системному ущербу разнообразны и достаточно вероятны, чтобы требовать серьезного планирования.

Варианты политических решений

Предлагаемые меры делятся на два лагеря: попытки замедлить или скорректировать развитие технологий с помощью регулирования, налогов и экспортного контроля, и меры по смягчению социальных последствий через перераспределение благ, системы социальной защиты и новые институты. Идеи варьируются от повышения корпоративных налогов до государственного финансирования переобучения, пилотных проектов по введению безусловного базового дохода и более строгих правил безопасности для систем двойного назначения, таких как автономное оружие. Логика многих из этих предложений проста: если выгоды от ИИ сконцентрируются слишком быстро, одни лишь рыночные механизмы не обеспечат стабильный и справедливый переходный период. Поэтому политикам, желающим предотвратить худшие сценарии, потребуется сочетать экономические меры с адресным техническим управлением.

За чем следить дальше

  • Скорость внедрения: как быстро компании внедряют заменяющие труд системы в крупномасштабные сервисы и рабочие процессы.
  • Сигналы рынка труда: измеримое снижение темпов найма или сохраняющееся давление на заработную плату в профессиях, считающихся автоматизируемыми.
  • Регуляторные меры: примут ли правительства обязательные правила безопасности для ИИ с высокой степенью риска и как они будут облагать налогом или перераспределять прибыль.
  • Военное применение: ускорят ли государства развертывание автономных систем и как будут эволюционировать нормы или договоры, ограничивающие вредоносное использование.

Почему это важно для читателей

Предупреждения Хинтона важны не потому, что они неизбежны, а потому, что они кристаллизуют риски, сочетающие технологические возможности с экономической и политической уязвимостью. Масштабы современной экономики и скорость изменений, движимых вычислительными мощностями, означают, что небольшие сдвиги в стимулах или возможностях могут иметь колоссальные социальные последствия. Для граждан это означает, что дискуссия перестала быть чисто академической: решения о госзакупках, налоговой политике, сетях социальной защиты и финансировании НИОКР определят, станет ли ИИ двигателем общего процветания или силой, которая концентрирует власть и дестабилизирует институты.

Кем бы вы ни считали Хинтона — пророком гибели или необходимым возмутителем спокойствия, — его вмешательство выносит на всеобщее обозрение главный вопрос: кто выигрывает от сегодняшних достижений и кто платит за это свою цену? Ответ на него определит очертания сферы труда, политики и безопасности в ближайшие десятилетия.

— Маттиас Рисберг, Dark Matter

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q О каком сценарии предупреждал Джеффри Хинтон в связи с быстрым внедрением ИИ?
A Он предупредил, что быстрое внедрение ИИ может привести к автоматизации многих рабочих мест, выполняемых людьми, в результате чего люди останутся безработными без очевидных новых ролей, что может разрушить потребление и социальную сплоченность в масштабах страны. Он связывает темпы технического прогресса с петлей социальной обратной связи, в которой сокращение числа оплачиваемых работников снижает спрос на товары и услуги, потенциально дестабилизируя экономику.
Q Какие механизмы, по мнению Хинтона, могут усилить системный риск?
A Экономическое вытеснение может привести к концентрации богатства у владельцев ИИ и мощностей по производству микросхем, снижая общий спрос и лишая многие домохозяйства денежных средств. Политические институты могут столкнуться с трудностями в адаптации при эрозии налоговой базы, когда значительная часть населения почувствует себя ненужной. В сфере безопасности автоматизированное оружие с низким уровнем контроля может снизить политическую цену войны, ускоряя конфликты.
Q Какие варианты политики описаны в материале для устранения потенциального вреда?
A Варианты политики делятся на два основных лагеря: регулирование с целью замедления или формирования развития технологий с помощью правил, налогов и экспортного контроля; и защита общества от потрясений через перераспределение благ, системы социальной защиты и новые институты. Конкретные идеи включают повышение корпоративных налогов, государственное финансирование переподготовки кадров, пилотные проекты по безусловному базовому доходу и ужесточение правил безопасности для систем двойного назначения, таких как автономное оружие, что отражает комплексный подход к управлению.
Q За какими показателями следует следить политикам, чтобы оценить нарастающие риски?
A Политикам следует следить за скоростью внедрения заменяющего труд ИИ в крупномасштабных сервисах, а также за сигналами рынка труда, такими как сокращение найма или устойчивое давление на заработную плату в профессиях, поддающихся автоматизации. Им также следует отслеживать регуляторные меры, включая правила безопасности для ИИ высокого риска и изменения в налогообложении или перераспределении, а также мониторить использование технологий в военных целях, чтобы понимать, как автономные системы влияют на стратегические решения и нормы.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!