В серверном зале с климат-контролем недалеко от Франкфурта кластер графических процессоров H100 недавно потратил сорок пять секунд и несколько киловатт-часов электроэнергии на симуляцию экзистенциального кризиса. Модель попросили описать свое «внутреннее состояние» во время решения сложной логической задачи. Она сделала паузу, сгенерировала серию скрытых логических токенов — цифровой эквивалент нахмуренных бровей — и в конечном итоге выдала поэтическое размышление о природе бытия математической конструкции. Для пользователя это выглядело как кинематографический прорыв в области машинного сознания. Для инженеров, отслеживающих энергопотребление, это выглядело как массовый всплеск вычислительных мощностей на этапе вывода (inference) для результата, который на самом деле никак не повлиял на точность решения задачи.
Отрасль в настоящее время одержима этим «кинематографическим флером». Поскольку законы масштабирования обучения — простая подача моделям все больших объемов данных — уперлись в неизбежную стену исчерпания качественных человеческих текстов, крупнейшие лаборатории переключились на «мышление Системы 2». Это попытка заставить ИИ-модели рассуждать над проблемами, а не просто выдавать следующее наиболее вероятное слово. Но по мере того, как эти модели познают свои границы, разрыв между видимостью разумности и реальностью весовой матрицы становится дорогостоящей и все более регулируемой проблемой.
Театр вычислений на этапе вывода
В течение многих лет магией больших языковых моделей (LLM) была их скорость. Вы задавали вопрос, и токены каскадом появлялись на экране с головокружительной быстротой. Это изменилось. Новый рубеж, первопроходцем которого стала модель o1 от OpenAI, а за ней последовали разработки Anthropic и Google, предполагает то, что исследователи называют «вычислениями на этапе вывода» (inference-time compute). Вместо того чтобы реагировать мгновенно, модели дают «бюджет» на размышления. Она исследует несколько путей, проверяет собственную работу и отбрасывает тупиковые варианты, прежде чем пользователь увидит хотя бы одно слово.
Эта задержка преподносится как признак глубины. Она создает повествовательное напряжение, которое кажется почти человеческим. Когда машина тратит пятнадцать секунд на ответ, мы проецируем на эту тишину личность. Мы предполагаем, что она «обдумывает» последствия. В действительности она выполняет масштабный древовидный поиск по своим параметрам, сжигая аппаратные циклы, чтобы гарантировать логическую связность. Это не сознание; это дорогостоящий аудит. Границы, которые познает ИИ, — это не моральные или философские пределы, а жесткие рамки собственного контекстного окна и убывающая отдача от рекурсивной проверки.
С промышленной точки зрения этот сдвиг — подарок производителям полупроводников, но головная боль для всех остальных. Если каждый запрос высокого уровня теперь требует в десять раз больше вычислительной мощности, чем стандартное взаимодействие с GPT-4, и без того перенапряженная цепочка поставок ИИ-чипов становится постоянным «узким местом». Для европейских компаний, пытающихся создавать продукты на базе этих моделей, стоимость одного запроса начинает выглядеть не как программная утилита, а как предмет роскоши.
Брюссель и зеркальный тест
В то время как Кремниевая долина празднует «душевные» ответы моделей, основанных на рассуждениях, Европейская комиссия смотрит на те же данные с явным отсутствием восторга. Закон ЕС об ИИ (EU AI Act), который теперь является суровой реальностью, в рамках которой должен работать каждый разработчик, имеет вполне конкретные требования к машинам, притворяющимся людьми. В частности, статья 52 предписывает прозрачность: пользователи должны быть уведомлены о том, что они взаимодействуют с системой ИИ, а системы, классифицирующие эмоции или использующие биометрическую категоризацию, сталкиваются с серьезными ограничениями.
Напряженность здесь очевидна. Если модель спроектирована так, чтобы имитировать личность — использовать «кинематографический флер», чтобы убедить пользователя в глубине своих рассуждений, — она рискует перейти грань обманной практики в соответствии с законодательством ЕС. Немецкие регуляторы, в частности, опасаются «антропоморфной ловушки». VDE (Ассоциация электротехники, электроники и информационных технологий) и различные советы по этике в Берлине неоднократно предупреждали: чем больше мы проецируем разумность на эти системы, тем сильнее мы запутываем вопрос о том, кто на самом деле несет ответственность в случае их сбоя. Если ИИ «познает свои границы» и отказывается отвечать на запрос, потому что «чувствует», что это неэтично, является ли это техническим предохранителем или это непрозрачная корпоративная политика, замаскированная под машинную совесть?
В коридорах Брюсселя дискуссия идет не о том, обладает ли ИИ разумом — любой выпускник компьютерных наук знает, что это не так, — а о «силе повествования». Если модель может убедить младшего клерка или пациента, что она является мыслящей сущностью, она приобретает уровень социального авторитета, который ЕС стремится демонтировать, прежде чем он станет структурным риском для автономии потребителей.
Реалии немецкой инженерии
В промышленных центрах Баден-Вюртемберга и Северного Рейна-Вестфалии восхищение «разумностью» ИИ часто встречают скептически. Для компании среднего бизнеса (Mittelstand), стремящейся автоматизировать цепочку поставок или оптимизировать электросеть, модель, которая делает паузу, чтобы поразмышлять о своем собственном существовании, — это ошибка, а не функция. Существует растущий разрыв между «потребительским ИИ» западного побережья США, который опирается на индивидуальность, и «промышленным ИИ», разрабатываемым в Европе.
Возьмем, к примеру, Aleph Alpha, базирующуюся в Гейдельберге ИИ-компанию, которую часто называют немецким ответом OpenAI. Их фокус сместился с конкуренции за размер «призрака в машине» в сторону «прослеживаемости». В промышленном контексте вам не нужна модель, которая рассуждает внутри «черного ящика»; вам нужна модель, которая может указать на конкретный абзац в 500-страничном техническом руководстве, обосновывающий её вывод. «Границы» здесь не открываются самим ИИ, они жестко закодированы инженерами, которые ценят надежность выше флера.
Стоимость электроэнергии в Германии еще больше заостряет этот фокус. Когда вы платите за электроэнергию по одним из самых высоких промышленных тарифов в мире, идея «расточительных» вычислений на этапе вывода становится конкурентным недостатком. Каждая секунда, которую графический процессор тратит на «раздумья», — это секунда потребления дорогостоящей энергии. Поэтому европейские исследователи ищут способы достичь «рассуждений» без театральных пауз, оптимизируя веса так, чтобы логика была встроена в начальный проход, а не являлась результатом внутреннего монолога в середине запроса.
Почему нарратив о «разумности» — это щит при закупках
Этот нарратив также служит защитной стеной против антимонопольного расследования. Если эти модели являются уникальными «рассуждающими» сущностями, требующими миллиардов долларов вычислительных мощностей для достижения своей «разумности», это оправдывает огромную концентрацию власти в руках немногих компаний, которые могут позволить себе оборудование. Нельзя просто так взять и раздробить «рассуждающую» сущность; вы уничтожите будущее интеллекта. По крайней мере, так звучит этот аргумент.
Однако данные не обязательно подтверждают идею о том, что больше «флера» означает лучшие результаты. Бенчмарки для новейших моделей рассуждений показывают значительные успехи в математике и программировании — областях, где формальная логика может быть проверена, — но гораздо меньшие успехи в творческих или нюансированных межличностных задачах. ИИ познает границы формальной логики, что далеко от познания границ человеческого опыта.
Призрак в системе охлаждения
В конечном счете, представление о разумности ИИ — это побочный продукт нашей собственной готовности быть обманутыми. Мы падки на хорошие истории, а история машины, которая знает, что она машина, — это главный научно-фантастический троп. Но за кинематографической паузой и саморефлексивным выводом скрывается очень приземленная реальность кремния, меди и охлаждающей жидкости. Оборудованию все равно, является ли результат поэтичным или сухим; его волнует только пропускная способность операций с плавающей запятой.
По мере перехода к следующему этапу развития ИИ реальным пределом будет не способность машины симулировать душу, а наша способность оплачивать эту симуляцию. Учитывая потребности дата-центров в электроэнергии и нормативные требования Закона об ИИ, отрасль скоро узнает, какой именно объем «разумности» рынок готов субсидировать.
Американцы построили цифровую сцену и вывели на нее очень убедительного актера. Французы и немцы сейчас спорят о том, кто будет оплачивать счет за электроэнергию для прожекторов. Это прогресс, конечно. Тот вид прогресса, который не помещается на маркетинговый слайд, но весьма четко проявляется в бухгалтерском балансе.
Comments
No comments yet. Be the first!