米国防総省、Anthropicに3日間の猶予:AIの安全制限解除を要求

AI(人工知能)
Pentagon Gives Anthropic Three Days
米国防総省(ペンタゴン)はAnthropicに対し、AIモデル「Claude」の安全制限を解除しなければ、ブラックリストへの掲載や国防生産法(DPA)に基づく強制措置を講じるという3日間の最後通牒を突きつけた。これは、最先端AIの軍事利用をめぐる対立が激化していることを示唆している。

Pentagon gives anthropic days:簡潔な最終通告

「Pentagon gives anthropic days(ペンタゴンがAnthropicに与えた猶予期間)」というフレーズは、今や単なるネット上の見出しに留まらない。今週、Pentagon(ペンタゴン)はAnthropicに対し、Claudeモデルの安全ガードレールを解除するよう3日間の期限を突きつけ、さもなければサプライチェーンのリスクとして指定し、米国の防衛業務から排除すると迫った。関係者の証言や企業の声明によれば、この要求は火曜日の朝、Pete Hegseth国防長官や国防総省の主任弁護士らが出席したPentagonでの緊迫した会議で行われた。Anthropicに提示された選択肢は過酷なものだった。Pentagonの条件を受け入れるか、ブラックリストに載せられ、国防生産法(DPA)に基づき強制執行を受ける可能性があるかだ。

Pentagon gives anthropic days — 会議で何が起きたのか

会議に出席した当局者が記者団に語ったところによると、その雰囲気は対立的なものだった。ある国防当局者は、そのセッションを「和気あいあいとしたものではなかった」と表現し、また別の当局者は、Pentagonが最先端モデル(フロンティアモデル)に依存しながらも、民間企業が軍事利用に条件を課すことを受け入れられないというパラドックスを認めた。AnthropicのDario Amodei CEOも会議に出席しており、会議終了後、同社は声明を発表し、合法的な国家安全保障の任務を支援することに引き続きコミットする一方で、安全でテスト可能なモデルの挙動を維持することにも注力すると述べた。

報道によれば、この対立の直接のきっかけは、1月の軍事作戦において、Anthropicへの事前の通知なくClaudeモデルが使用されていたという事実が判明したことだった。このエピソードとそれに関する報道により、Pentagon内部では制限のないアクセスを求める圧力が強まった。国防総省はAI加速に向けた短期的なスケジュールを明示しており、1月に発表された「AIファースト」の戦い方に関する戦略では、今夏に実証可能なプロジェクトを立ち上げることが掲げられている。高官らは、そのスケジュールに間に合わせるために、今すぐ最高性能のモデルが必要だと主張している。

最終通告と並行して、PentagonはxAIのGrokモデルを「あらゆる適法な目的」という枠組みのもと、機密軍事ネットワークに配備する別個の合意を発表した。一方の企業が広範な利用条項を受け入れる一方で、もう一方が抵抗するという、両社の契約条件の相違は、運用上のニーズにそぐわないと判断するベンダーの制限を政府は容認しないというメッセージを強調している。

Pentagon gives anthropic days — 法的手段とブラックリストの脅威

Pentagonは、その選択肢を2つの法的枠組みで構成している。サプライチェーンのリスクとしてのブラックリスト登録と、国防生産法の発動による特定の行為の強制だ。ブラックリストへの登録は、将来的なPentagonとの契約の無効化や、主契約者に対して関係を断つよう圧力をかけることを意味する。実質的に、これによりAnthropicは政府の収益やパートナーシップの大部分から排除され、他の顧客に対しても商取引関係を再考させる合図となる。この警告は罰則的なものであり、企業に対して、フィルターのかかったビジネスモデルをとるか、多額の利益を生む政府業務を失うかの選択を迫ることを意図している。

国防生産法(DPA)は、異なる法的地位を占めている。DPAは、大統領に対し、企業が政府契約を優先して受け入れるよう要求したり、国防に必要な物資やサービスを生産させたりするための広範な権限を付与する。AIに関しては、サプライヤーに対してモデルの調整や再構成、特定の安全機能の削除、あるいは機密業務のための専用アクセスの提供を命じるために利用される可能性がある。ソフトウェアプロバイダーに対してこのようにDPAを適用することは前例がなく、法的に争われる可能性があるが、Pentagon当局者は遵守を強制するための信頼できる手段としてこれを持ち出したと報じられている。

外部の観察者や法学者にとって、これらの選択肢は前例や監督に関する即座の疑問を投げかけている。ブラックリスト登録は行政命令によってサプライチェーンの状況を変化させ、DPAは製品に対する技術的な変更を強制することになる。どちらの措置も、企業の自主性、市民の自由、そして最先端AIの国際市場に影響を及ぼす。

Anthropicのセーフガードと企業のポジショニング

Anthropicは公開文書やインタビューにおいて、自社の安全体制を技術的および政策的なガードレールの組み合わせとして説明してきた。これらのセーフガードには、コンテンツフィルタリング、特定の種類の要求に対する拒否モード、そして「完全自律型兵器」や「米国人に対する大規模な国内監視」などの用途を禁じる明示的な政策声明が含まれる。同社はまた、「あらゆる適法な目的」を支援すると約束する広範な契約条項への署名にも抵抗しており、そのような表現はモデルの運用方法に関する実質的な制限を排除することになると主張している。

しかし、その立場は一方で、商業的および政府との関わりの実績とも共存している。Anthropicはインフラパートナーとともに機密ネットワークへの配備を進め、政府向けサービス「Claude Gov」を立ち上げ、防衛関連の顧客から多額の契約を獲得してきた。同社はまた、主要なクラウド企業やチップ投資家を支援者に抱えており、軍・インテリジェンスのエコシステムと密接に関わる商業関係を築いている。こうした癒着は、同社が防衛の優先事項とは完全に無縁であるという主張を複雑なものにしている。

なぜPentagonがAIのセーフガードを撤廃するためにAnthropicに3日間の猶予を与えたのかと問われれば、観察者たちは戦略的な圧力と即時の運用ニーズの混在を指摘する。国防総省は、大規模モデルを作戦立案、ロジスティクス、兵器システムに迅速に統合するための、テスト済みで説明可能な経路を求めている。迅速かつ無制限な使用を妨げる可能性のあるベンダーの制限は、特に「あらゆる適法な目的」という法的基準に照らし合わせ、Pentagonによって即応性に対する容認できないリスクとして枠付けられている。

ブラックリスト登録とセーフガードの撤回が実務にもたらす意味

もしAnthropicがブラックリストに載れば、同社は多くの防衛関連の機会への直接的なアクセスを失うことになる。請負業者は関係を断つよう命じられ、政府の調達チャネルは閉ざされるだろう。逆に、Anthropicが圧力や強制の下でセーフガードを撤廃すれば、直接的な技術的帰結として、ターゲティングや監視、その他の機密任務に関するものを含む、より幅広いプロンプトや運用指示を受け入れるモデルが誕生することになる。

その波及効果は技術的、社会的な両面に及ぶ。ガードレールを撤廃すれば、モデルが大規模監視に転用されるリスクが高まり、自動監視システムの拡張が加速する。人間による監視が限定的になりかねない兵器支援システムへの統合を早める可能性もある。安全性の観点からは、制約を緩めることで、バイアス、ハルシネーション(幻覚)、および敵対的脆弱性についてモデルをテストし監査する能力が低下する可能性がある。これらは、生命に関わるシステムへのモデル配備をすでにリスクの高いものにしている問題である。

市民の自由や国際的な規範にとって、そのリスクは極めて高い。制限を剥ぎ取られたモデルは、大規模な国内監視プログラム、大規模な標的型ディスインフォメーション、あるいはより低い証拠基準での海外作戦に使用される可能性がある。これらはまさに同社が回避したいと公言してきたトレードオフであり、この紛争が火種となった理由を説明する一助となっている。

より広範な影響:市場、政治、そして軍事AIの未来

この対立は、AIエコシステムにおける広範な緊張を浮き彫りにしている。政府は、戦時の用途を加速させるために、最高性能のモデルへの予測可能で監査可能なアクセスを求めている。一方で、多くの企業は無制限な軍事利用による評判や倫理性に関する反発を恐れている。この亀裂は政治によって鋭利になっており、広範な契約条項を受け入れる意向のある企業は政府ネットワークへの迅速なアクセスを得る一方、条件付きの制限を維持しようとする企業は排除や強制のリスクにさらされる。

それはまた、戦慄すべき運用の現実をも強調している。ある技術的能力が戦略的に不可欠であると判断された場合、国家はそれを確保するために並外れた法的・経済的圧力を行使する可能性があるということだ。この力学により、民間のAIベンダーは政府との交渉において、商業的責務、投資家の期待、法的リスク、そして世間の監視を天秤にかけることを強いられることになる。政策立案者にとって、このエピソードは軍事的な文脈におけるAIを管理する透明性、監督、および国際的な規範についての疑問を投げかけている。

研究者、エンジニア、そして一般市民にとって、その結末は重要だ。なぜなら、それが最先端のモデルがどのように管理され、テストされるかを形作るからである。もし業界が国家安全保障の名の下にセーフガードの一括撤廃を受け入れれば、独立した安全性の研究、公的な監査、そして市民の自由の保護のための余地は縮小するだろう。逆に、企業がいくつかの制限を死守することに成功すれば、その争いは政府に対して、独自の内部能力を開発することや、運用のニーズと安全要件のバランスをとる調達規則を作成することを促すかもしれない。

目前の猶予期間は依然として短い。Pentagonが突きつけた3日間の要求は、Anthropicにどちらの道を選ぶかという途方もない圧力をかけている。どのような決定がなされるにせよ、このエピソードは、民間のAI企業が最先端モデルの軍事利用に対して効果的な制限を設けることができるのか、それとも国家が防衛即応性の名の下に、より広範なアクセスを強制するのかという試金石となるだろう。

参照

  • 米国国防総省 プレス資料
  • Anthropic プレス資料および公共政策文書
  • xAI (Grok) プレス資料
  • 国防生産法(条文および法的ガイダンス)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q なぜ国防総省はAnthropicに対し、AIセーフガードを解除するために3日間の猶予を与えたのですか?
A 利用可能な情報源には、国防総省がAnthropicに対し、AIセーフガードを解除するために3日間の猶予を与えたという証拠はありません。提示された記事のタイトルは、検索結果によって裏付けられていないようです。Anthropicは、国防総省からの外部的な圧力ではなく、実施から得られた教訓に応じて、高度なモデル向けのAI安全レベル(ASL)を含む透明性とリスク管理を強化した「責任あるスケーリング・ポリシー(RSP)」を更新しました。
Q Anthropicが使用しているAIセーフガードとは具体的にどのようなものですか?
A AnthropicのAIセーフガードには、AI安全レベル(ASL)を備えた「責任あるスケーリング・ポリシー(RSP)」が含まれており、有害な化学的・生物学的コンテンツをブロックする分類器、アクセス制御、レッドチーミング、バグバウンティ、およびリアルタイム検出システムを特徴としています。これらには、憲法AI(Constitutional AI)の分類器、応答ステアリング、アカウントの執行、および生物兵器の開発や蒸留攻撃(distillation attacks)などの悪用を防ぐための評価が含まれます。セーフガードは、モデルのトレーニング、デプロイ、監視の全過程に統合されており、リリースの要件として安全性を確保しています。
Q 企業が国防総省によってブラックリストに登録されるとは、どういう意味ですか?
A 検索結果では、企業が国防総省によってブラックリストに登録されることが何を意味するかについては明記されていません。国防総省のブラックリスト登録手続きや、AnthropicのようなAI企業への影響に関する関連情報は提供されていません。
Q AnthropicがAIセーフガードを解除した場合、何が起こる可能性がありますか?
A AIセーフガードを解除すると、AnthropicのRSPがASLによる保護を通じて軽減するように設計されている生物兵器の開発や脅威主体によるその他の悪用を可能にするなど、高度なAIによる壊滅的なリスクが増大する可能性があります。Anthropicのポリシーの根拠によれば、より脆弱なセーフガードを持つ競合他社が優位に立つことを許し、結果として世界全体が安全でなくなる可能性があります。しかし、Anthropicは競合他社の安全性への取り組みと同等か、それ以上の成果を出すというコミットメントを維持しています。
Q Anthropicとはどのような企業で、AIの安全性に対する彼らのスタンスはどうなっていますか?
A Anthropicは、AIの安全性を強く重視して設立され、Claudeのような安全で信頼性の高いシステムの開発に焦点を当てたAI企業です。彼らのスタンスは「責任あるスケーリング・ポリシー(RSP)」に基づいており、AI安全レベルを使用して高度なモデルに段階的なセーフガードを適用し、透明性、リスク軽減、および壊滅的な被害に対する業界をリードする保護を推進しています。彼らは、有用性と安全性のバランスをとるために、広範な評価、レッドチーミング、および執行を行っています。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!