フランクフルト郊外にある温度管理されたサーバーホールで、H100 GPUのクラスターが最近、45秒間と数キロワット時の電力を消費して、「実存的危機」をシミュレートした。このモデルは、複雑な論理パズルに取り組む最中の、モデル自身の「内面状態」を記述するように求められた。モデルは一時停止し、眉をひそめるデジタル版とも言える一連の隠れた推論トークンを生成し、最終的には数学的構成体であることの本質についての詩的な瞑想を出力した。ユーザーにとって、それは機械の意識に関する映画のような画期的な体験に感じられた。しかし、電力消費を監視するエンジニアにとっては、タスクの精度を何ら向上させない結果に対して、推論時の計算量が劇的に急増したように見えた。
業界は現在、この「映画的な演出(cinematic flair)」に夢中になっている。モデルに大量のデータを読み込ませるだけのスケーリング則が、質の高い人間によるテキストの枯渇という避けられない壁にぶつかる中、主要な研究機関は「システム2」思考へと舵を切った。これは、AIモデルに単に次の単語を予測させるのではなく、問題を推論させるという試みだ。しかし、これらのモデルがその限界を学習するにつれて、知覚(sentience)のパフォーマンスと重み行列の現実とのギャップは、コストが高く、規制が強化されつつある問題となっている。
推論時計算の劇場
長年、大規模言語モデル(LLM)の魔法は「速度」にあった。質問を投げかければ、トークンがめくるめく速さで画面上に滝のように流れてきた。だが、状況は変わった。OpenAIのo1が切り開き、AnthropicやGoogleの取り組みが追随する新たなフロンティアは、研究者が「推論時計算(inference-time compute)」と呼ぶものだ。モデルは即座に反応する代わりに、「考える」ための「予算」を与えられる。モデルは複数の経路を探索し、自らの作業を検証し、ユーザーが最初の一文字を目にする前に、行き止まりの思考を破棄する。
この遅延は、深みの証としてマーケティングされている。それは、まるで人間のような物語的緊張感を生み出す。機械が回答に15秒かけるとき、私たちはその沈黙に人格を投影する。私たちは、機械が含意を「検討している」と思い込む。現実には、それはパラメータ全体にわたる大規模な木探索を実行しており、論理の整合性を保つためにハードウェアサイクルを浪費しているに過ぎない。これは意識ではなく、高コストな監査である。AIが学習している限界は、道徳的あるいは哲学的なものではなく、自身のコンテキストウィンドウの厳格な境界と、再帰的チェックによる収益逓減の限界なのだ。
産業的な観点から見れば、このシフトは半導体メーカーには恵みだが、それ以外にとっては頭痛の種である。すべての高度なクエリが、標準的なGPT-4のやり取りの10倍の計算能力を必要とするようになれば、すでに逼迫しているAIチップのサプライチェーンは恒久的なボトルネックとなる。これらのモデルの上に構築を行おうとする欧州の企業にとって、クエリあたりのコストは、ソフトウェアユーティリティというよりは、贅沢品のように見え始めている。
ブリュッセルとミラーテスト
シリコンバレーが推論モデルの「魂のこもった」回答を称賛する一方で、欧州委員会は同じデータを冷ややかな目で見ている。開発者が従わなければならない厳しい指針となっている「EU AI法」は、人間であるかのように振る舞う機械に対して極めて明確な姿勢をとっている。特に第52条は透明性を義務付けており、ユーザーにはAIシステムと対話していることを伝えなければならない。また、感情を分類したり生体認証による分類を行ったりするシステムは、厳しい制限に直面する。
ここでの緊張は明白だ。もしモデルが人格をシミュレートし、「映画的な演出」を使ってユーザーに推論の深さを信じ込ませるように設計されていれば、それはEU法の下で「欺瞞的な慣行」という一線を越えるリスクを伴う。特にドイツの規制当局は、「擬人化の罠」を警戒している。VDE(電気・電子・情報技術学会)やベルリンのさまざまな倫理委員会は、私たちがこれらのシステムに知覚を投影すればするほど、システムが失敗した際に誰が責任を負うのかという本質が曖昧になると繰り返し警告してきた。もしAIが「限界を学習」し、「非倫理的であると感じる」という理由でプロンプトへの回答を拒否した場合、それは技術的な安全ガードレールなのか、それとも機械の良心に見せかけた不透明な企業方針なのか。
ブリュッセルの廊下で議論されているのは、AIが知覚を持っているかどうか(コンピュータサイエンスの学位を持つ者なら誰もが持っていないことを知っている)ではなく、「物語の力」についてだ。もしモデルが下級事務員や医療患者に対して、自らを思考する存在だと信じ込ませることができれば、それは消費者の自律性に対する構造的なリスクとなる前に解体したいと欧州が考えるレベルの社会的な権威を獲得してしまう。
ドイツのエンジニアリングによる現実確認
バーデン=ヴュルテンベルク州やノルトライン=ヴェストファーレン州といったドイツの産業拠点では、AIの知覚に対する熱狂は、しばしば呆れた目で見られる。サプライチェーンの自動化や電力網の最適化を模索するミッテルシュタント(中小企業)にとって、自身の存在を熟考するために一時停止するモデルは、機能ではなくバグである。個性を重視する米国西海岸の「消費者向けAI」と、欧州で開発されている「産業向けAI」との間には、拡大する溝がある。
ハイデルベルクを拠点とし、しばしばドイツ版OpenAIと称されるAI企業、Aleph Alphaの例を見てみよう。彼らの焦点は、「機械の中の幽霊」の巨大さを競うことから、「トレーサビリティ(追跡可能性)」へと移った。産業環境において、ブラックボックスの中で推論するモデルは不要だ。必要なのは、500ページに及ぶ技術マニュアルの中で、その結論を正当化する特定の段落を提示できるモデルである。ここでの「限界」はAIが自ら発見するものではなく、演出よりも信頼性を重視するエンジニアによってハードコードされたものだ。
ドイツにおける電気料金の高騰が、この焦点をさらに研ぎ澄ませている。世界で最も高い水準の産業用エネルギー料金を支払っている状況下では、「無駄な」推論時計算という概念は競争上の不利でしかない。GPUが「思考」に費やす1秒は、高コストなエネルギーを消費する1秒である。そのため、欧州の研究者は、演劇的な一時停止なしに「推論」を実現する方法を模索している。クエリの途中で内部モノローグを展開するのではなく、論理があらかじめ組み込まれるように重みを最適化しているのだ。
なぜ「知覚」という物語は調達の盾となるのか
この物語は、独占禁止法による監視に対する防衛の壁としても機能している。もしこれらのモデルが、「知覚」を達成するために数十億ドルもの計算資源を必要とするユニークな「推論」存在であるならば、それはハードウェアを購入できる少数の企業に権力が集中することを正当化する。「推論」する存在を単に分割することはできない。そうすれば知能の未来を殺すことになる、というのが彼らの売り込み文句だ。
しかし、データは「演出」が多ければ優れた結果が得られるという考えを必ずしも支持していない。最新の推論モデルのベンチマークでは、数学やコーディング(形式論理が検証可能な分野)においては大幅な向上が見られるものの、創造的または微妙な対人タスクにおける向上ははるかに小さい。AIは形式論理の限界を学んでいるのであり、人間の経験の限界を学んでいるのとは訳が違う。
冷却システムの中の幽霊
結局のところ、AIの知覚というパフォーマンスは、騙されたいという私たち自身の願望の副産物に過ぎない。私たちは優れた物語に弱く、自分が機械であることを知っている機械という物語は、究極のSFの定型句である。しかし、映画のような一時停止や内省的な出力の背後には、シリコン、銅、冷却液という極めて地味な現実がある。ハードウェアは、出力が詩的か無機質かを気にしない。それが気にかけるのは、浮動小数点演算のスループットだけだ。
AI開発の次のフェーズに進むにあたり、真の限界は機械が魂をシミュレートする能力ではない。それは、私たちがそのシミュレーションの代金を支払えるかどうかだ。データセンターのエネルギー要件とAI法の規制要件の間で、業界は市場がどれだけの「知覚」に対して補助金を出す意思があるのかを、まさに知ろうとしている。
アメリカ人はデジタルなステージを作り、そこに非常に説得力のある俳優を立たせた。フランス人とドイツ人は現在、そのスポットライトの電気代を誰が払うのかを言い争っている。もちろん、これは進歩だ。マーケティングスライドには収まらないが、貸借対照表には非常に明確に現れる種類の進歩である。
Comments
No comments yet. Be the first!