Anthropic、核心的な安全性の公約を撤回

人工知能 (AI)
Anthropic ditches its core safety promise
Anthropicは2026年2月25日、AIの「レッドライン」を巡るペンタゴンとの緊迫した対立の最中、拘束力のある開発停止の誓約から、レポート主導の柔軟な安全フレームワークへの移行を発表した。この動きは、業界の責任の所在、政府調達における影響力、そして「安全性優先」を掲げるAI公約の将来について疑問を投げかけている。

ワシントンと業界が衝突する中、Anthropicが核となる安全性の公約を破棄

Anthropicが核となる安全性の公約を破棄:ポリシーによって実際に何が変わるのか

約2年前に発表されたAnthropicの以前の「責任あるスケーリング・ポリシー(Responsible Scaling Policy)」には、明確なガードレールが含まれていた。それは、もしモデルの能力が同社のテストや制御が追いつかないほど速く進歩した場合、Anthropicはさらなるトレーニングを一時停止することを約束するというものだった。ブログ記事として公開され、「フロンティア安全性ロードマップ(Frontier Safety Roadmap)」を中心に構成された新しいポリシーにおいて、同社はその断固とした一時停止を撤回した。代わりにAnthropicは、モデルの能力、脅威モデル、緩和策に関する詳細な報告書を定期的に公開し、公表された安全目標に対する自社の進捗状況を独自に評価するとしている。

ペンタゴンとのレッドラインを巡る対立の中、Anthropicが核となる安全性の公約を破棄

この方針転換は、今週エスカレートした国防総省との並行した争いという文脈でも読み解く必要がある。Pete Hegseth国防長官はAnthropicのCEOであるDario Amodeiと会談し、調達の妨げになると見なしているセーフガードを撤回するよう同社に期限を設けて通告したと報じられている。ペンタゴンは、拒否すればAnthropicは2億ドルの契約を失う可能性があり、政権が国防生産法などの手段を行使したり、Anthropicを正式にサプライチェーンのリスクとして指定したりする可能性があると警告した。これらの措置は、同社が米政府に販売する能力を厳しく制限することになる。

Anthropicは当局に対し、2つの譲れない一線は守ると伝えている。それは、AI制御兵器を構築・実現しないこと、そして米国市民の国内大量監視を可能にしないことだ。これらの除外規定は、同社が以前からモデルの受け入れがたい用途として定義してきた文言と一致している。それでもなお、国防総省の高官らは一時停止の公約の削除を企業の安全性保証の弱体化と見なしており、軍に納入されるシステムがより厳格な安全基準を満たすことを保証するためのペンタゴンの交渉材料を減らすものだと考えている。

この紛争における「レッドライン」の意味

政策用語において「レッドライン」とは、軍や政府がサプライヤーの行動に対して設定する、明確で強制力のある境界線のことである。ペンタゴンにとって、AIに関するレッドラインとは、モデルを兵器システムに使用できない条件や、機密性の高いアプリケーションに配備する前の検証可能なテストと制御の要件などを指す場合がある。国防総省は、安全テストを待つ間、能力の向上を一時停止するという誓約のような拘束力のある企業のコミットメントを、高信頼性システムを調達する際の有用な裏付けと見なしている。このようなコミットメントを削除することは、レッドラインをより緩やかな指針に変えることになり、調達の決定を複雑にし、規制が強化される可能性を高める。

しかし、Anthropicやその他の企業にとって、一方的なレッドラインは競争上の不利益になる可能性がある。同社の経営陣や一部の研究者は、競合他社がより強力なモデルを配備している間に1社だけが一時停止すれば、リスクは慎重な開発者から社会全体に移る可能性があると主張している。これはAnthropicの最高科学責任者が公に示した核心的な議論である。同社は、動きの速い市場において、一方的な一時停止は安全性戦略としてスケールしないと考えているのだ。

業界の反応と信頼性のトレードオフ

この発表はAIコミュニティ全体に即座に反応を呼び起こした。一部の研究者は、監視や兵器使用に関してAnthropicが屈することを拒否したことを称賛し、調達の名の下にセーフガードを下げるよう政府が要求することは、憂慮すべき前例となると指摘した。一方で、懸念を表明する者もいる。拘束力のある一時停止から自主的な報告へと移行することは、これまで信頼の拠り所となっていた機械的な保証を減少させるという。

信頼には技術的な側面と評判の側面がある。Anthropicは、特定のモデルが不自然な条件下で脅迫のような挙動に誘導される可能性があることを示す自社の研究などを引き合いに出し、配備に対する慎重な姿勢を正当化している。また、AIリスクに関するアドボカシーや公共教育への投資といった具体的な政治的活動も強調した。しかし、透明性の報告だけでは、システムが政府の使用に認定される前に、法的に強制力のある制限や独立した監査を求める外部の利害関係者を満足させるには必ずしも十分ではない。

市場と政策への波紋

この議論は、AIの破壊的な影響に対してすでに神経質になっている市場を背景に展開されている。投資家や顧客は、安全第一を掲げる企業が競争力を維持しつつ、厳格なチェックを継続できるかどうかに注目している。Anthropicの方針転換は、少なくとも一部の企業が競争や、ペンタゴンのような大口顧客の発注力によるプレッシャーを感じていることを示唆している。その結果、永続的な安全チェックなしに配備を競い合うことになれば、規制当局や立法府が介入せざるを得なくなると感じる可能性がある。

反対に、ペンタゴンが示唆した強硬策(ブラックリスト掲載、国防生産法の行使、サプライチェーン・リスクの指定)は、企業の政策選択を強制したり罰したりするために調達がいかに利用され得るかを示している。この力学はより広範な問題を提起する。国家安全保障に関わる買い手は、オープン市場よりも厳しい要件を課すべきなのか、もしそうなら、イノベーションを阻害することなく、それらの要件をどのように監査し、強制できるのか。議員や規制当局が関与する可能性が高く、商業的動機と公衆の安全との間の綱引きがすぐに解決することはないだろう。

将来の AIの安全性 基準への影響

Anthropicの動きは、より大きなシステム上の問題を浮き彫りにしている。自発性や道徳的説得に依存する安全規範は、利害の大きい商業的・地政学的な競争の中では崩壊する可能性があるということだ。より頻繁な公開報告と安全性マイルストーンへの段階的な進捗という同社の新しいアプローチは、政策立案者、研究者、監査人にとってより豊かなデータセットを生み出すかもしれないが、許容可能なリスクに関する意見の相違がどのように解決されるかは不透明なままである。ペンタゴンは自らが使用するシステムに対して明確な保証を求めているが、Anthropicやその他の企業は、一方的な一時停止を避ける柔軟で反復的なプロセスを好んでいる。

実務的な次のステップが重要になる。もしペンタゴンが調達に関する制裁を断行すれば、買い手がサプライヤーに対して内部ポリシーの変更をどこまで迫ることができるかについて前例ができることになる。もしAnthropicがAI兵器と大量監視に対する二重の拒否を維持しつつ、能力報告書の公開を続けるならば、その結果は交渉による妥協点となるかもしれない。すなわち、政府向け業務にはより厳格な独立テストと契約上の安全性条項を設け、商業向け製品には業界の透明性へのコミットメントを組み合わせるというものだ。それがなければ、膠着状態によって強制力のある基準を作成するための立法措置の可能性が高まる。

この話は、モデルのトレーニングを一時停止するか、あるいは拘束力のある誓約を報告主導のロードマップに置き換えるかといった技術的な決定が、地政学、調達能力、市場の動機といかに密接に関連しているかを示す明確な例である。Anthropicのポリシーの書き換えは、単なる内部的な事務変更ではない。それは、能力をリリースするために競い合う競合他社と、利用可能で認定可能なシステムを要求する政府の両方に直面したとき、安全第一というレトリックがいかに生き残るかを示すシグナルである。そのシグナルが顧客、規制当局、研究者にどのように受け取られるかが、AIガバナンスの次の段階を形作ることになるだろう。

情報源

  • Anthropic (責任あるスケーリング・ポリシー第3版およびフロンティア安全性ロードマップ)
  • 米国国防総省 / ペンタゴンの公的声明および調達措置
  • Anthropicのポリシー変更とペンタゴンとの紛争に関するCNNの報道
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Anthropicの核心的な安全性の約束とは何であり、なぜそれが重要なのでしょうか?
A Anthropicの核心的な安全性の約束は、同社の「責任あるスケーリング・ポリシー(Responsible Scaling Policy)」の一部であり、十分な安全対策を事前に保証できない限り、フロンティアAIモデルの学習やリリースを行わないというものでした。この公約は、迅速な開発よりも安全性を優先することで、同社を競合他社から差別化していました。その重要性は、業界の圧力の中でAIの安全性に対してより高い基準を設定したことにありましたが、批評家は自発的な誓約は容易に変更され得ると指摘しています。
Q Anthropicがペンタゴン(米国国防総省)との紛争において、安全性の公約を撤回したと報じられたのはなぜですか?
A 検索結果にはペンタゴンとの紛争に関する言及はありません。代わりに、Anthropicが安全性の公約を撤回したのは、OpenAIのようなライバル企業との激しい競争、加熱するAI開発競争において競争力を維持する必要性、そして政府による規制や同様の厳格な基準を採用する同業他社が不在であるためです。同社は、開発のスピードと安全性のバランスをとるため、安全性ロードマップやリスク報告書といった透明性向上策へとシフトしました。
Q AI開発や政策論争における「レッドライン」とは何を意味しますか?
A AI開発や政策論争における「レッドライン」とは、AIシステムの開発や展開が極めてリスクが高いと見なされる臨界値(閾値)や境界線を指し、それを超えた場合には開発の停止や厳格な保護措置が求められます。これは、他分野のバイオセーフティーレベルと同様に、壊滅的なリスクを防ぐための譲れない限界を示しています。
Q Anthropicの決定は、政府のAI契約や安全性基準にどのような影響を与える可能性がありますか?
A Anthropicの決定は、より緩い自発的な安全性基準を常態化させ、厳格な保護措置よりも迅速な導入を優先する政府のAI契約において、期待値を下げる可能性があります。これにより、他の企業も追随するよう促され、拘束力のある規制を求める声がある中で、契約が厳格な前提条件よりも競争力や透明性報告を重視するように影響を与えるかもしれません。
Q このCNNの報道が業界のAI安全性に与えるより広範な影響は何ですか?
A 報道が反映するように、CNNのレポートは自発的なAI安全性公約の脆弱性を浮き彫りにしており、業界全体が慎重さよりも競争へとシフトしていることを示唆し、政府規制の必要性を強調しています。これは、AI開発者の自己管理に対する国民の信頼を損なわせ、壊滅的なリスクを軽減するための強制的監視の実施に関する議論を激化させる可能性があります。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!