米国防総省 vs Anthropic:AI利用制限を巡る「遮断」の脅威

A.I
Pentagon vs Anthropic: Cut-off Threat
米国防総省(ペンタゴン)は、AIの軍事利用制限を巡りAnthropicへのアクセス遮断を示唆し、機密ネットワーク上でのツール利用を認めるよう圧力を強めている。この対立は、防衛側の要求、企業の安全ガイドライン、そして国家安全保障上のリスクの間の緊張を浮き彫りにしている。

Anthropicとの交渉が膠着状態に陥る中、Pentagonが提携打ち切りを示唆

2026年2月16日に浮上した報道によると、今週、PentagonはAnthropicとの提携を打ち切ると警告した。米国国防総省は、同社の大規模言語モデルを軍がどのように使用できるかについて、Anthropicが設けている制限を緩和するよう迫っている。CNBCが報じ、先にReutersやAxiosも伝えていたこの紛争は、民間のAI企業が、兵器開発、情報収集、戦場での作戦など、Pentagonが「あらゆる適法な目的」と表現する用途に自社システムの使用を許可するかどうかに焦点を当てている。Anthropicは、完全な自律型兵器や国内の大量監視に対する厳格な制限など、特定の安全上の制約について譲らない姿勢を示しており、この意見の相違は関係断絶の脅しにまで発展している。

Pentagonによる提携打ち切りの脅し:法的および契約上の摩擦点

衝突の核心は、法的および契約上の文言にある。Pentagonは、機密ネットワーク上のモデルへのアクセスと、広範な軍事任務全般での使用を可能にする広義の表現を求めている。対して企業側は通常、モデルレベルのセーフガードやポリシーに基づく制限を条件にアクセスを提供してきた。Pentagonにとって「あらゆる適法な目的」というフレーズは、許可される軍事利用に関する曖昧さを排除する単一の契約条件である。Anthropic、OpenAI、Google、xAIといった企業にとって、その文言を受け入れることは、モデルに組み込まれた技術的制御と、誤用を制限することを目的とした企業のポリシーコミットメントの両面で、内部の安全ガードレールを損なうリスクがある。

交渉は技術的な詳細にも及んでいる。モデルを機密ネットワークにどのようにデプロイするか、コンテンツフィルターや使用ログの記録を維持するか、そしてAI駆動型システムが有害な出力を生成した場合に誰が責任を負うかといった点だ。数ヶ月にわたる交渉を経て、Pentagonは不満をあらわにしている。制限の撤廃や緩和を求める動きは、紛争環境において利用可能な最も有能なシステムを使用したいという運用上の要望を反映したものだが、企業側は法的責任、レピュテーションリスク、そして軍事利用に関する広範な倫理を懸念している。

Anthropicおよびその他のベンダーの対応

Anthropicは公に、米国政府との初期の対話は、特定の作戦への許可を与えることよりも、利用ポリシーの問題や明確な境界線(特に完全な自律型兵器の禁止や国内の大量監視の制限)に焦点を当てていたと述べている。同社の広報担当者は記者団に対し、Pentagonと特定の戦術作戦におけるClaudeモデルの使用について議論したことはないと語った。この声明の一方で、Claudeがパートナーを経由して少なくとも一つの注目を集める作戦で使用されたという報道もある。Wall Street Journalは、ベネズエラの元大統領を拘束する作戦において、Palantirを通じてClaudeが導入されたと報じており、パートナーとの統合が企業の「自制」という単純な説明をいかに複雑にしているかを浮き彫りにしている。

報道で名前が挙がった他の主要AI企業(OpenAI、Google、xAI)も、アクセス拡大を求めるPentagonの圧力にさらされている。ReutersとCNBCは、企業が民間ユーザーに適用している標準的な制限の多くを課さずに、機密ネットワーク上でモデルを利用可能にするよう求める国防総省の広範な要求について詳述した。各企業は、契約機会やセキュリティクリアランスと、内部ポリシーや外部からの監視とのバランスを取りながら、これらの要求に対して異なる対応を見せている。

Pentagonが圧力を強める理由とその目的

しかし、「あらゆる適法な目的」という包括的で制限のない契約文言を求めることは、モデルがキネティック(物理的破壊を伴う)または隠密な状況で使用される際に、どのようなセーフガードが維持されるのかという疑問を投げかける。適法な使用は広範な法的基準であり、意図しないエスカレーションや民間人への危害、あるいは国内法や国際法の違反を避けるための管理体制の実装が依然として求められる。これらの運用上の要求が、現在の緊張の源となっている。

危機に瀕する技術的セーフガードとPentagonの懸念

企業は、モデルレベルの制御(ファインチューニング、安全レイヤー、レッドチーム演習、コンテンツフィルター)とポリシーレベルの制御(利用規約と契約上の使用制限)という二つの軸に沿って、モデルにセーフガードを組み込んでいる。制限を緩和またはバイパスしようとするPentagonの要求は、実務におけるこれらの制御の機能を変えることになる。例えば、セキュリティ上の理由から機密ネットワークにモデルを配置すると、一部のテレメトリやログの記録が削除される可能性があるが、これは企業が誤用を監視し、問題のある挙動を修正する能力を損なうことにもつながる。

報道によると、Pentagonは、完全な自律型兵器の制御や国内の大量監視など、Anthropicが高リスクとみなすシナリオにおける制限緩和の提案を同社が拒否していることに苛立ちを募らせている。これらは、Anthropicだけでなく多くのAI企業が、人間の監視なしに致死的な結果をもたらし得る自律的な意思決定に対して厳格な禁止を維持してきた領域である。

アクセスの遮断が安全とセキュリティに及ぼす波及効果

もしPentagonが提携を打ち切れば、当面の影響として、米国の国防コミュニティが利用できるベンダーの選択肢が狭まることになる。その結果、国防総省内での特注モデルの構築や契約の取り組みが加速したり、より広範な使用条件に応じる企業への依存度が高まったり、あるいは外国のサプライヤーとの提携が促されたりする可能性が高い。いずれの結果も、独自のセキュリティと監視のトレードオフを伴う。また、提携の打ち切りは、各機関にベンダー側の安全制御が少ないソリューションの採用を強いることになり、誤用や意図しない結果を招くリスクを高める可能性がある。

逆に、強固な安全制限を維持する企業は、これらのガードレールが下流のリスクを軽減し、任務の肥大化を防ぎ、公衆の信頼を維持すると主張している。この対立は、国家安全保障の担い手が特定の軍事利用を制限する企業のガードレールを許容するのか、それとも制限のないアクセスを主張し、政府システム内での新たな監視負担を受け入れるのかという、より深い戦略的選択を示している。

過去の先例と広範な政策的背景

国防総省はこれまでもAI研究に資金を提供し、業界と提携を結んできたが、現在は市販の大規模言語モデルの規模と成熟度の点で際立っている。以前の協力関係には、特定のセーフガードを必要とする条件付きの助成金やパイロットプロジェクトが含まれていた。現在の紛争は、試験的な資金提供ではなく、広範な運用条件に関するものである。ポリシーの相違を理由にベンダーを切り捨てるとのPentagonの脅しは、公の場でのエスカレーションであり、高度なAIツールを提供するすべての主要サプライヤーにとって、今後の厳しい交渉を示唆している。

政治的な圧力も働いている。著名人や競合他社も意見を表明しており、特にElon Muskは最近、公の場でAnthropicのモデルを批判した。これは、バイアス、安全性、そして軍事におけるAIの適切な役割についての議論が、もはや閉ざされた調達紛争ではなく、騒がしい公の議論の一部であることを強調している。

交渉と今後の動き

双方は、完全な決別を避ける動機を持っている。Pentagonは最先端の能力を必要としており、企業側は政府とのビジネスを維持し、重要な契約から除外されることを避けたいと考えている。今後は、契約上の文言、技術的な隔離措置(例:エアギャップやオフセットデプロイメント)、強化された監査および監視手順、そして機密環境における法的責任と許容される使用を明確にする新たな法的枠組みについて、舞台裏で集中的な交渉が行われることが予想される。

一般市民や政策立案者にとって、この紛争は、輸出管理、デュアルユース技術の監視、そして国家安全保障に使用されるAIのために新たなガバナンスモデルが必要かどうかという、おなじみの問いを投げかけている。目先の結果がどうあれ、この交渉は、安全ガードレールを無傷に保とうとしながら、政府と民間のAI開発者がどのように機密性の高い能力を共有するかについての先例となるだろう。

出典

  • 米国国防総省(Pentagon)の公式声明および調達資料
  • Anthropicのプレス資料および企業声明
  • Palantir Technologiesのパートナー展開に関する公開情報
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Anthropicとは何ですか?また、なぜ国防総省はAIセーフガードを巡って同社との提携を打ち切ると脅しているのですか?
A Anthropicはサンフランシスコを拠点とするAI企業で、ベネズエラでの急襲作戦といった軍事作戦でも使用されているAIモデル「Claude(クロード)」で知られています。ピート・ヘグセス国防長官率いる国防総省は、Anthropicが、あらゆる合法的目的のためにClaudeを無制限に軍事利用することを拒否し、代わりにアメリカ人への大規模監視や自律型兵器に対するセーフガードを主張していることを理由に、提携を解消し、同社を「サプライチェーンのリスク」に指定すると脅しています。この紛争は数ヶ月にわたる交渉にもかかわらず激化しており、国防総省はAnthropicの制限を過度に制約的であると見なしています。
Q 国防総省は、AnthropicがどのようなAIセーフガードを満たせなかったと述べていますか?
A 国防総省は、Anthropicが、特に機密システムにおいて、あらゆる合法的な軍事用途のためにClaude AIへの無制限のアクセスを許可するという要件を満たさなかったと述べています。Anthropicは、アメリカ人に対する大規模監視や、人間の関与なしに動作する兵器の開発を禁止する契約条件を求めていますが、国防総省はグレーゾーンが存在するため、これらは非現実的であると考えています。国防総省はまた、OpenAI、Google、xAIに対しても同様の無制限なアクセスを求めて圧力をかけています。
Q 国防総省は他のAI企業に対しても同様の措置を講じましたか?
A 国防総省は、他のAI企業をサプライチェーンのリスクとして指定するなどの同様の措置はまだ講じていませんが、OpenAI、Google、xAIとの間でも同様の無制限アクセスの問題をめぐって、現在も厳しい交渉を続けています。これらの企業は機密システムでの軍事利用に関する制限を緩和することに同意していますが、機微な作戦に対して完全に実施されているわけではありません。現時点では、これらの企業に対する実際の提携停止や指定を示す報告はありません。
Q Anthropicとの提携を打ち切ることは、AIの安全性や国家安全保障の取り組みにどのような影響を与える可能性がありますか?
A Anthropicとの提携を打ち切ることは、特殊な軍事用途で先行しているClaudeへのアクセスを遮断することになり、国家安全保障を妨げる可能性があります。競合モデルは「一歩遅れている」状態にあり、重要な作戦に遅れが生じる可能性があります。また、AI企業に安全性のセーフガードを弱めるよう圧力をかけることになり、大規模監視や自律型兵器の開発を通じてプライバシー侵害が増大するリスクもあります。その一方で、企業のAI制限よりも軍事的なニーズを優先するという前例を作ることになり、倫理的なセーフガードを犠牲にして防衛AIの取り組みを促進させる可能性もあります。
Q CNBCは国防総省とAnthropicの紛争について何を報じましたか?
A 入手可能な紛争に関する報告の中でCNBCは直接言及されておらず、報道は主にAxiosとHindustan Timesによるものです。Axiosは、Claudeの使用制限をめぐるピート・ヘグセス国防長官のAnthropicとの提携解消に近い決定を詳細に報じており、数ヶ月にわたる交渉後の不満や、同社をサプライチェーンのリスクとして指定することに関する国防総省当局者の言葉を引用しています。Hindustan Timesもこれを報じ、監視や自律型兵器に対するAnthropicのセーフガードを強調しました。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!