再帰的超知能と2億ドルの従業員

人工知能 (AI)
Recursive Superintelligence and the $200 Million Employee
設立わずか120日のスタートアップが、AIの「聖杯」とされる、人間の介入なしに自らアップグレードをプログラムするマシンの開発を目指し、5億ドルの資金調達に成功した。

この評価額の背後にある数学は、投機的であると同時に極めて現実的だ。20人のチームで40億ドルの評価額がついたということは、市場は実質的に従業員1人あたり2億ドルの価値をつけていることになる。これは、10年前に深層学習ブームの第1波で見られた「アクハイヤー(人材獲得目的の買収)」のピーク時の水準を上回る。これは、Googleのベンチャー部門や世界で最も影響力のある半導体企業を含む投資家たちが、もはや大規模言語モデル(LLM)における漸進的な改善には関心がないことを示唆している。彼らが求めているのは、「人間がループ(サイクル)に関与する」開発からの出口戦略だ。

コードは実際に、より優れたコードを書けるのか?

「再帰的超知能(Recursive Superintelligence)」の核心的な前提は、自律的な改善サイクルの追求にある。現在のAI開発はボトルネックを抱えたプロセスだ。人間がアーキテクチャを設計し、人間がデータセットをキュレートし、人間が強化学習(RLHF)を通じてモデルが幻覚を見たり有害になったりしないよう調整している。これは線形的な成長モデルである。再帰的な自己改善は、モデルが自らのアルゴリズムの非効率性を特定し、それを修正するために自らのコードベースを書き換えるという、指数関数的な成長を目指すものだ。

この分野のエンジニアたちは、これを「ループを閉じる(closing the loop)」と呼ぶ。困難なのは目的関数である。もしモデルが自らの推論能力を改善するよう課された場合、それが単に高速化したり、誤った回答に過信を抱くようになっただけではなく、実際に「より新しく、改善された」バージョンになったのかを検証する方法が必要となる。物理的現実や形式論理(LLMが決定的に欠いているもの)に基づかない再帰的自己改善は、しばしば「モデル崩壊(model collapse)」を引き起こす。これは、AIが自らの癖を増幅し続け、最終的には出力が統計的なノイズと化すフィードバックループである。Richard Socher氏とTim Rocktäschel氏が率いるRecursiveのチームは、シンボリック推論や自動発見に対する彼ら独自のアプローチによって、このエントロピーを回避できると賭けている。

Tim Rocktäschel氏のUniversity College LondonやGoogle DeepMindでの経歴は、彼らの技術的な方向性を示唆している。彼の研究は、「オープンエンド」な学習、つまりエージェントがタスクの内容を教えられることなく、自らタスクを解決する方法を学ばなければならない環境に重点を置いてきた。欧州の産業界の文脈で見れば、これは通常、Horizon Europeの助成金や欧州研究会議(ERC)によって資金提供されるような高レベルな研究だ。しかしここでは、米国のベンチャーキャピタルによって先行されており、欧州の学術的卓越性と、それを主権的な産業力へとスケールさせる同大陸の能力との間に残る絶望的なギャップが浮き彫りになっている。

Nvidiaは「シンギュラリティ」の大家である

この状況は、シリコンバレーのエコシステムにおいて奇妙な循環経済を生み出している。米国のベンチャーファンドが資金を提供し、スタートアップはそれをNvidiaのハードウェアに費やす。その結果、Nvidiaの収益が膨らみ、それが今度はベンチャーファンドの出資者(リミテッド・パートナー)が頼りにする広範なテック指数を押し上げる。欧州の観察者にとって、このサイクルはもどかしいほどに閉鎖的だ。EUチップ法は現地の製造能力構築を目指しているが、パロアルトでは創業4ヶ月の企業に40億ドルの評価額を可能にするような、ハイリスク・ハイリターンのソフトウェアとハードウェアのフィードバックループを育てるには至っていない。ベルリンやパリでは考えられないことだ。

Salesforceの元チーフサイエンティストであるRichard Socher氏の参加は、単なる学術的な演習に見えかねないプロジェクトに、商業的な現実主義の層を加えている。Socher氏のキャリアは、自然言語処理(NLP)を企業向けの実用的なものにすることによって定義されてきた。もしRecursive Superintelligenceが単なる「ムーンショット(野心的な目標)」を掲げる実験室に過ぎなければ、この金利環境下で5億ドルもの資金を集めるのは困難だっただろう。今回の資金調達規模は、たとえ部分的な成功であっても――例えばAIが自らの推論コストを最適化したり、独自のデータを整理したりするだけで――Fortune 500企業の業務コストを劇的に削減し、数十億ドルの価値を生むという信念があることを示唆している。

「知能爆発」は実行可能なエンジニアリングの目標か?

再帰的な自己改善理論の批判者は、「収穫逓減」の問題を指摘する。ほとんどのエンジニアリング分野において、システムを最適化すればするほど、さらなる向上を見出すことは困難になる。効率40%のエンジンを改善するよりも、効率98%のエンジンを改善する方がはるかに難しい。シンギュラリティの物語は、知能はそれとは異なり、認知能力がわずかに向上するたびに、次の向上がより容易になると想定している。しかし、これはエンジニアリングの事実ではなく、哲学的な仮説に過ぎない。

規制の観点から見ると、欧州のAI法は、AIを単に「利用する」企業だけでなく、創造のプロセスそのものを製品とする企業に対処しなければならない時期が来るだろう。もしモデルが自らのコードを書き換え始めたら、最終的な出力の責任は誰が負うのか? 元のプログラマーか、それとも計算リソースの提供者か? この法的な曖昧さこそ、米国のベンチャーキャピタリストが肩をすくめ、ドイツのキャピタリストが保険証券に手を伸ばすような類のものだ。これはリスク許容度における根本的な違いであり、大西洋を挟んだ分断を決定づけ続けている。

ゼロから5億ドルに達するまでのこの取引のスピードは、次の時代を定義する変化を見逃すことを恐れる市場の症状である。それは、持続可能なビジネスモデルを持つことではなく、相手よりも先に目的地に到達することが目的だった、宇宙開発競争の初期を彷彿とさせる。今回の目的地は、24時間365日自らの進化のために働く自律的な知能だ。もしRecursive Superintelligenceが成功すれば、5億ドルという価格は誤差の範囲に見えるだろう。失敗すれば、第2次AIバブルの頂点として記憶されることになる――自ら考えるマシンの夢に、人々のために実際にモノを作る企業の多くよりも高い価値をつけた瞬間として。

シリコンバレーは、未来を構築する最も賢い方法は、未来に自らを構築させることだと決断した。欧州は今も、3部複写の書類が提出されるのを待っている。

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q AI開発における再帰的自己改善とは何ですか?
A 再帰的自己改善とは、AIモデルが自身のコードの非効率性を特定し、性能を向上させるために自ら書き換える自律的なサイクルのことを指します。人間の設計者やキュレーションされたデータセットに依存する従来の手法とは異なり、このアプローチは指数関数的な成長モデルの構築を目指すものです。その目標は、人間の介入なしに機械が独自のアップグレードをプログラムできるようにすることでループを完結させ、急速かつ自己持続的な知能爆発を導く可能性を秘めています。
Q なぜ投資家は設立わずか4か月のスタートアップに40億ドルの評価額を付けたのですか?
A 投資家が同社を40億ドルと評価したのは、人間主導のAI開発における線形的な成長の限界を回避し得る「再帰的超知能」という技術に焦点を当てているからです。20名という少人数のチームでこの評価額は、従業員一人当たり約2億ドルに相当します。GoogleやNvidiaなどの出資者は、AI最適化の自動化において一部でも成功すれば、莫大な運用コストの削減と、自律型マシンインテリジェンス競争における大きな競争優位性をもたらすと期待しています。
Q AIが自身のコードを正しく書き換えることを妨げている技術的な課題は何ですか?
A 大きな技術的リスクとして「モデル崩壊」が挙げられます。これは、フィードバックループによってAIが自身の誤りを増幅させ、出力が統計的なノイズと化してしまう現象です。大規模言語モデルは形式論理学的な根拠に欠けることが多いため、新しいコードが真に優れているかを検証するのに苦労する可能性があります。強固な目的関数がなければ、システムは欠陥のある結果を出しながら、単に動作が速くなったり、出力に過剰な自信を持つようになったりするリスクがあります。このため、人間の監視なしにループを完結させることは非常に困難です。
Q AIスタートアップに対する投資環境は、米国と欧州でどのように異なりますか?
A 投資環境の違いは、両地域間のリスク許容度の大きなギャップを反映しています。米国では、ベンチャーキャピタルは、時代の転換点となるようなプロジェクトを逃さないために、リスクの高い「ムーンショット」プロジェクトに対して数十億ドル規模の資金を投入することを厭いません。対照的に、欧州の開発はAI法などの規制上の慎重さや、学術助成金への依存によって停滞しがちです。その結果、欧州で訓練を受けた研究者が、自らの高度なイノベーションを拡大するために米国からの資金調達を求めるという状況が生じています。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!