Наступила ли эра AGI? Новое заявление ученых из UCSD

Science
Is AGI Here? The New UCSD Claim
Четверо ученых из Калифорнийского университета в Сан-Диего (UCSD) в статье для журнала Nature утверждают, что сильный искусственный интеллект (AGI) уже реализован в современных больших языковых моделях. Эксперты и представители индустрии выражают несогласие. В данном анализе рассматривается определение AGI, представленные доказательства, контраргументы и причины, по которым это важно именно сейчас.

Искусственный общий интеллект уже здесь? Доказательства и определения UC San Diego

В поддержку своего утверждения о том, что AGI уже наступил, авторы указывают на поведение: современные большие языковые модели (LLM) регулярно преодолевают разговорные пороги в стиле Тьюринга и в контрольных задачах могут достигать или превосходить уровень эксперта-человека во многих областях. Авторы ссылаются на исследования, показывающие, что в тестах типа Тьюринга современные модели принимались за людей гораздо чаще, чем при случайном выборе, и отмечают, что мы обычно приписываем общий интеллект людям на основании аналогичного наблюдаемого поведения — мы не заглядываем внутрь человеческого мозга, чтобы вынести решение о наличии понимания.

Важно отметить, что группа из UC San Diego отличает общий интеллект от суперинтеллекта и от человекоподобного познания. Их аргументация не требует, чтобы машина училась так же, как ребенок, обладала телом человеческого типа или была безупречной. Вместо этого ставится вопрос: учитывая стандарты, которые мы применяем к другим разумным существам, существуют ли убедительные поведенческие доказательства того, что некоторые машины демонстрируют гибкую, кросс-доменную компетентность, которую мы связываем с общим интеллектом? Их ответ: да, в определенных аспектах.

Искусственный общий интеллект уже здесь? Голоса индустрии и контрнарратив

Лидеры индустрии подливают масла в огонь. Некоторые руководители — включая видных CEO облачных и ИИ-платформ — публично заявили, что считают нынешние системы достигшими уровня AGI или что граница теперь фактически стала прозрачной. Эти заявления часто являются сокращенным выражением коммерческой уверенности: модели могут генерировать тексты, рассуждать над документами, писать код и выполнять рабочие процессы, будучи объединенными в «агентов». Для клиентов и инвесторов эти возможности уже являются экономически трансформационными.

Однако не все согласны с тем, что поведенческий паритет равен AGI. Критики утверждают, что описание современных LLM как обладающих общим интеллектом стирает важные различия. Технические возражения распадаются на несколько широких категорий: модели, которые лишь статистически сопоставляют закономерности без причинно-следственных моделей мира; системы, которые галлюцинируют или выдают уверенные, но ложные результаты; архитектуры, лишенные устойчивых целей, субъектности (agency) или воплощенного взаимодействия; а также системы, которым требуется на порядки больше данных, чем людям, для достижения компетентности. Для многих скептиков эти различия не являются косметическими — они выявляют фундаментальные пробелы между нынешним ИИ и устойчивым, автономным общим интеллектом.

Как исследователи определяют AGI — и почему определения имеют значение

Что именно представляет собой искусственный общий интеллект? Определения разнятся, но в серьезных дискуссиях повторяются две идеи. Первая рассматривает AGI как практическую способность выполнять почти все когнитивные задачи, которые может выполнять человек: язык, математика, планирование, восприятие, решение проблем, творческое и научное мышление. Другое, более формальное направление исследований ищет универсальную метрику способности решать задачи в различных распределениях заданий (теоретическая программа, представленная в работах по «универсальному интеллекту»).

Те, кто считает AGI все еще теоретическим, делают упор на механизмы: систему, которая может гибко формировать цели, переносить обучение между совершенно разными областями на основе малого объема данных, физически взаимодействовать с окружающей средой и учиться в ходе этого постоянного взаимодействия. Они указывают на то, что нынешним моделям, какими бы мощными они ни были, часто не хватает надежного причинно-следственного мышления, им требуется серьезная поддержка со стороны человека, чтобы вести себя агентно, и они непредсказуемо дают сбои за пределами своей обучающей выборки. Сторонники же возражают, что требовать от машин доказательств, которых мы никогда не требуем от людей — например, изучения внутренних процессов — непоследовательно.

В чем современный ИИ соответствует человеческим способностям, а в чем — нет

  • Соответствует: беглая речь, обобщение текстов, написание кода, многие стандартизированные задачи, экспертное поведение в конкретных областях при тонкой настройке или расширении инструментами.
  • Слабые стороны: ненадежная фактологическая основа («галлюцинации»), хрупкая обобщающая способность вне обучающей выборки, ограниченное долгосрочное автономное планирование в свободном режиме и низкая эффективность обучения на примерах по сравнению с человеческими младенцами.
  • Недостающие ингредиенты, на которых настаивают эксперты: устойчивые цели и субъектность, воплощенное сенсомоторное обучение, причинно-следственные модели, поддерживающие контрфактическое мышление без огромных массивов данных, и прозрачные механистические объяснения того, почему возникают те или иные способности.

AGI уже здесь или лишь в пределах досягаемости?

Насколько близки исследователи к достижению искусственного общего интеллекта? Мнения в области разделились. Некоторые дорожные карты предусматривают постепенные улучшения и агентные системы — более надежные, мультимодальные и интегрированные — которые приведут нас к полноценному AGI в течение десятилетия. Другие настаивают на том, что нынешние архитектуры эволюционно поверхностны и потребуются новые концептуальные прорывы. Поскольку современные системы уже удивляют своих создателей, прогнозирование сроков остается делом неблагодарным.

Различия между ИИ и AGI на практике

Различие между ИИ, который вы используете сегодня, и гипотетическим AGI носит как технический, так и философский характер. Узкий ИИ превосходно решает ограниченную задачу при наличии большого количества данных; AGI подразумевает общее решение проблем в разных областях с переносом навыков, планированием и адаптацией. На практике это означает разницу в автономности (способность формировать и преследовать цели без подсказок человека), переносимости (использование способности, полученной в одном контексте, в совершенно другом) и устойчивости (стабильная работа в новых, состязательных условиях или в условиях нехватки данных).

Риски, преимущества и последствия для политики

Назовете ли вы это AGI сегодня или через пять лет, появление систем, способных последовательно выполнять широкий спектр когнитивных задач, имеет социальные последствия. Преимущества реальны и измеримы: автоматизация сложного анализа, улучшенный синтез научной литературы, новые модели промышленной автоматизации, поддержка принятия медицинских решений и ускорение циклов НИОКР. Риски варьируются от дезинформации, усиленной беглым генерированием текстов, до экономического вытеснения, сбоев в системе безопасности, когда моделям предоставляется свобода действий, и вопросов об ответственности, когда непрозрачные модели принимают важные решения.

Это сочетание объясняет, почему управление, прозрачность, ред-тиминг (red teaming) и регулируемое развертывание являются неотложными приоритетами даже для скептиков. Центральная задача политики заключается не только в технической инженерии безопасности, но также в экономической и социальной политике для защиты работников, потребителей и демократических институтов при одновременном получении выгоды.

Что эти дебаты говорят нам о науке и обществе

Этот эпизод — комментарий в Nature, одобрение индустрии и контрлитература в виде скептических книг и колонок — подчеркивает два факта. Во-первых, определения имеют значение: утверждение «AGI уже здесь» является в той же мере концептуальным ходом, что и эмпирическим заявлением. Во-вторых, неопределенность в отношении механизмов работы реальна и значима. У нас есть замечательные поведенческие системы, чью внутреннюю логику мы не понимаем до конца; это сочетание мощи и непрозрачности объясняет как восторг, так и тревогу.

На данный момент наиболее обоснованная позиция такова: мы находимся в переходной эпохе. Некоторые системы уже достигают человеческого уровня производительности в узких и многих кросс-доменных задачах; другие остаются ограниченными в автономности, причинно-следственном понимании и воплощенном обучении. Имеет ли значение для риторики, называть ли это состояние «AGI», — вопрос открытый, но ответ в сфере политики должен быть одинаковым: инвестировать в тщательную оценку, требовать прозрачности и безопасности и готовить общественные институты к быстрым социальным последствиям.

James Lawson

James Lawson

Investigative science and tech reporter focusing on AI, space industry and quantum breakthroughs

University College London (UCL) • United Kingdom

Readers

Readers Questions Answered

Q Что именно представляет собой сильный искусственный интеллект (AGI)?
A Сильный искусственный интеллект (AGI) — это гипотетический тип ИИ, который может соответствовать человеческим способностям или превосходить их практически во всех когнитивных задачах, включая рассуждение, планирование, обучение и общение на естественном языке. В отличие от узкого ИИ, AGI обобщает знания, переносит навыки между областями и решает новые проблемы без перепрограммирования под конкретную задачу. Его целью является воспроизведение универсального, адаптивного интеллекта человеческого разума.
Q Существует ли уже AGI или он все еще остается теоретическим?
A AGI еще не создан; он остается гипотетическим и теоретическим, и в настоящее время нет систем, соответствующих человеческому уровню общего интеллекта во всех областях. Современный ИИ, такой как большие языковые модели, превосходит человека в конкретных задачах, но ему не хватает истинного понимания, здравого смысла или способности адаптироваться к совершенно новым контекстам без переобучения. Утверждения о достижении AGI, подобные любым недавним заявлениям UCSD, не подтверждаются консенсусом в данной области.
Q Насколько близки исследователи к созданию сильного искусственного интеллекта?
A Исследователи активно стремятся к созданию AGI с помощью таких подходов, как нейронные сети и машинное обучение, но это остается отдаленной целью без четких сроков реализации. Прогресс в узком ИИ, таком как модели GPT, демонстрирует впечатляющие возможности в ограниченных областях, однако сохраняются фундаментальные проблемы, такие как абстрактное мышление, причинно-следственные связи и самосовершенствование. Экспертный консенсус рассматривает AGI как теоретическую концепцию, до реализации которой могут пройти десятилетия.
Q В чем основные различия между ИИ и AGI?
A Узкий ИИ (или ANI) отлично справляется с конкретными, четко определенными задачами, такими как распознавание изображений или перевод текста, но не может выйти за рамки своего обучения. AGI, напротив, выполняет любую интеллектуальную задачу, которую может выполнить человек, обладая универсальностью, адаптивностью, способностью к самосовершенствованию и человекоподобным пониманием в различных областях без перепрограммирования. Современный ИИ полагается на заданные параметры, в то время как AGI будет обучаться самостоятельно и автономно решать новые проблемы.
Q Каковы потенциальные риски и выгоды AGI для общества?
A AGI может принести огромную пользу, например, ускорить научные открытия, помочь в решении сложных глобальных проблем и повысить экономическую продуктивность за счет автономных инноваций. Однако риски включают вытеснение рабочих мест, потерю человеческого контроля, экзистенциальные угрозы со стороны несогласованных сверхразумных систем и этические проблемы, связанные с принятием решений в критически важных областях. По мере развития технологий общество должно уделять приоритетное внимание исследованиям в области безопасности, чтобы смягчить эти опасности.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!