Искусственный общий интеллект уже здесь? Доказательства и определения UC San Diego
В поддержку своего утверждения о том, что AGI уже наступил, авторы указывают на поведение: современные большие языковые модели (LLM) регулярно преодолевают разговорные пороги в стиле Тьюринга и в контрольных задачах могут достигать или превосходить уровень эксперта-человека во многих областях. Авторы ссылаются на исследования, показывающие, что в тестах типа Тьюринга современные модели принимались за людей гораздо чаще, чем при случайном выборе, и отмечают, что мы обычно приписываем общий интеллект людям на основании аналогичного наблюдаемого поведения — мы не заглядываем внутрь человеческого мозга, чтобы вынести решение о наличии понимания.
Важно отметить, что группа из UC San Diego отличает общий интеллект от суперинтеллекта и от человекоподобного познания. Их аргументация не требует, чтобы машина училась так же, как ребенок, обладала телом человеческого типа или была безупречной. Вместо этого ставится вопрос: учитывая стандарты, которые мы применяем к другим разумным существам, существуют ли убедительные поведенческие доказательства того, что некоторые машины демонстрируют гибкую, кросс-доменную компетентность, которую мы связываем с общим интеллектом? Их ответ: да, в определенных аспектах.
Искусственный общий интеллект уже здесь? Голоса индустрии и контрнарратив
Лидеры индустрии подливают масла в огонь. Некоторые руководители — включая видных CEO облачных и ИИ-платформ — публично заявили, что считают нынешние системы достигшими уровня AGI или что граница теперь фактически стала прозрачной. Эти заявления часто являются сокращенным выражением коммерческой уверенности: модели могут генерировать тексты, рассуждать над документами, писать код и выполнять рабочие процессы, будучи объединенными в «агентов». Для клиентов и инвесторов эти возможности уже являются экономически трансформационными.
Однако не все согласны с тем, что поведенческий паритет равен AGI. Критики утверждают, что описание современных LLM как обладающих общим интеллектом стирает важные различия. Технические возражения распадаются на несколько широких категорий: модели, которые лишь статистически сопоставляют закономерности без причинно-следственных моделей мира; системы, которые галлюцинируют или выдают уверенные, но ложные результаты; архитектуры, лишенные устойчивых целей, субъектности (agency) или воплощенного взаимодействия; а также системы, которым требуется на порядки больше данных, чем людям, для достижения компетентности. Для многих скептиков эти различия не являются косметическими — они выявляют фундаментальные пробелы между нынешним ИИ и устойчивым, автономным общим интеллектом.
Как исследователи определяют AGI — и почему определения имеют значение
Что именно представляет собой искусственный общий интеллект? Определения разнятся, но в серьезных дискуссиях повторяются две идеи. Первая рассматривает AGI как практическую способность выполнять почти все когнитивные задачи, которые может выполнять человек: язык, математика, планирование, восприятие, решение проблем, творческое и научное мышление. Другое, более формальное направление исследований ищет универсальную метрику способности решать задачи в различных распределениях заданий (теоретическая программа, представленная в работах по «универсальному интеллекту»).
Те, кто считает AGI все еще теоретическим, делают упор на механизмы: систему, которая может гибко формировать цели, переносить обучение между совершенно разными областями на основе малого объема данных, физически взаимодействовать с окружающей средой и учиться в ходе этого постоянного взаимодействия. Они указывают на то, что нынешним моделям, какими бы мощными они ни были, часто не хватает надежного причинно-следственного мышления, им требуется серьезная поддержка со стороны человека, чтобы вести себя агентно, и они непредсказуемо дают сбои за пределами своей обучающей выборки. Сторонники же возражают, что требовать от машин доказательств, которых мы никогда не требуем от людей — например, изучения внутренних процессов — непоследовательно.
В чем современный ИИ соответствует человеческим способностям, а в чем — нет
- Соответствует: беглая речь, обобщение текстов, написание кода, многие стандартизированные задачи, экспертное поведение в конкретных областях при тонкой настройке или расширении инструментами.
- Слабые стороны: ненадежная фактологическая основа («галлюцинации»), хрупкая обобщающая способность вне обучающей выборки, ограниченное долгосрочное автономное планирование в свободном режиме и низкая эффективность обучения на примерах по сравнению с человеческими младенцами.
- Недостающие ингредиенты, на которых настаивают эксперты: устойчивые цели и субъектность, воплощенное сенсомоторное обучение, причинно-следственные модели, поддерживающие контрфактическое мышление без огромных массивов данных, и прозрачные механистические объяснения того, почему возникают те или иные способности.
AGI уже здесь или лишь в пределах досягаемости?
Насколько близки исследователи к достижению искусственного общего интеллекта? Мнения в области разделились. Некоторые дорожные карты предусматривают постепенные улучшения и агентные системы — более надежные, мультимодальные и интегрированные — которые приведут нас к полноценному AGI в течение десятилетия. Другие настаивают на том, что нынешние архитектуры эволюционно поверхностны и потребуются новые концептуальные прорывы. Поскольку современные системы уже удивляют своих создателей, прогнозирование сроков остается делом неблагодарным.
Различия между ИИ и AGI на практике
Различие между ИИ, который вы используете сегодня, и гипотетическим AGI носит как технический, так и философский характер. Узкий ИИ превосходно решает ограниченную задачу при наличии большого количества данных; AGI подразумевает общее решение проблем в разных областях с переносом навыков, планированием и адаптацией. На практике это означает разницу в автономности (способность формировать и преследовать цели без подсказок человека), переносимости (использование способности, полученной в одном контексте, в совершенно другом) и устойчивости (стабильная работа в новых, состязательных условиях или в условиях нехватки данных).
Риски, преимущества и последствия для политики
Назовете ли вы это AGI сегодня или через пять лет, появление систем, способных последовательно выполнять широкий спектр когнитивных задач, имеет социальные последствия. Преимущества реальны и измеримы: автоматизация сложного анализа, улучшенный синтез научной литературы, новые модели промышленной автоматизации, поддержка принятия медицинских решений и ускорение циклов НИОКР. Риски варьируются от дезинформации, усиленной беглым генерированием текстов, до экономического вытеснения, сбоев в системе безопасности, когда моделям предоставляется свобода действий, и вопросов об ответственности, когда непрозрачные модели принимают важные решения.
Это сочетание объясняет, почему управление, прозрачность, ред-тиминг (red teaming) и регулируемое развертывание являются неотложными приоритетами даже для скептиков. Центральная задача политики заключается не только в технической инженерии безопасности, но также в экономической и социальной политике для защиты работников, потребителей и демократических институтов при одновременном получении выгоды.
Что эти дебаты говорят нам о науке и обществе
Этот эпизод — комментарий в Nature, одобрение индустрии и контрлитература в виде скептических книг и колонок — подчеркивает два факта. Во-первых, определения имеют значение: утверждение «AGI уже здесь» является в той же мере концептуальным ходом, что и эмпирическим заявлением. Во-вторых, неопределенность в отношении механизмов работы реальна и значима. У нас есть замечательные поведенческие системы, чью внутреннюю логику мы не понимаем до конца; это сочетание мощи и непрозрачности объясняет как восторг, так и тревогу.
На данный момент наиболее обоснованная позиция такова: мы находимся в переходной эпохе. Некоторые системы уже достигают человеческого уровня производительности в узких и многих кросс-доменных задачах; другие остаются ограниченными в автономности, причинно-следственном понимании и воплощенном обучении. Имеет ли значение для риторики, называть ли это состояние «AGI», — вопрос открытый, но ответ в сфере политики должен быть одинаковым: инвестировать в тщательную оценку, требовать прозрачности и безопасности и готовить общественные институты к быстрым социальным последствиям.
Comments
No comments yet. Be the first!