미 국방부, 앤스로픽에 3일의 시한 통보

인공지능
Pentagon Gives Anthropic Three Days
미 국방부가 앤스로픽에 클로드(Claude) 모델의 안전 제한을 해제하라는 3일간의 최후통첩을 보냈습니다. 이를 이행하지 않을 경우 블랙리스트 등재나 국방물자생산법(DPA)에 따른 강제 조치에 직면할 수 있으며, 이는 최첨단 AI의 군사적 활용을 둘러싼 갈등이 격화되고 있음을 시사합니다.

Pentagon, Anthropic에 며칠의 기한을 주다: 단호한 최후통첩

"Pentagon, Anthropic에 며칠의 기한을 주다(pentagon gives anthropic days)"라는 문구는 이제 단순한 인터넷 헤드라인 그 이상입니다. 이번 주 Pentagon은 Anthropic에 자사의 Claude 모델에 적용된 안전 가드레일을 해제하라는 3일간의 시한을 주며 압박했으며, 이를 이행하지 않을 경우 공급망 리스크(supply‑chain risk)로 분류되어 미국 국방 업무에서 배제될 것이라고 경고했습니다. 참가자들의 보고와 회사 성명에 따르면, 이 요구는 화요일 오전 Pentagon에서 열린 긴박한 회의에서 전달되었으며, 이 자리에는 Defense Secretary Pete Hegseth와 국방부 고위 법률 고문들이 참석했습니다. Anthropic에 제시된 선택지는 냉혹했습니다. Pentagon의 조건을 수락하거나, 블랙리스트에 오르고 잠재적으로 국방물자생산법(Defense Production Act, DPA)에 따라 강제 조치를 당하는 것입니다.

Pentagon, Anthropic에 며칠의 기한을 주다 — 회의에서 무슨 일이 있었나

회의에 참석한 관계자들은 기자들에게 회의 분위기가 대립적이었다고 전했습니다. 한 국방 관리는 이 세션이 "따뜻하고 부드러운 분위기가 아니었다"고 묘사했으며, 또 다른 관리는 Pentagon이 프론티어 모델에 의존하면서도 민간 기업이 군사적 사용에 조건을 설정하는 것을 수락하지 못하는 역설적인 상황을 인정했습니다. Anthropic의 CEO인 Dario Amodei가 이 회의에 참석했으며, 회의 후 회사는 정당한 국가 안보 임무를 지원하는 동시에 안전하고 테스트 가능한 모델 동작을 유지하는 데 전념하고 있다는 성명을 발표했습니다.

언론 보도에 따르면 이번 대립의 즉각적인 원인은 Claude 모델이 Anthropic에 사전 통보 없이 지난 1월 군사 작전에 사용되었다는 사실이 드러났기 때문입니다. 이 사건과 관련 보도는 Pentagon 내부에서 제한 없는 접근권을 요구해야 한다는 압박을 강화했습니다. 국방부는 단기적인 AI 가속화 일정에 대해 명확한 입장을 밝혀왔습니다. 지난 1월 발표된 "AI 우선" 교전 전략은 이번 여름까지 실증 가능한 프로젝트를 제시했으며, 고위 관리들은 이러한 일정을 맞추기 위해 현재 가장 성능이 뛰어난 모델이 필요하다고 말합니다.

최후통첩과 함께 Pentagon은 "모든 합법적 목적(all lawful purposes)"이라는 항목 아래 xAI의 Grok 모델을 기밀 군사 네트워크에 배치하기로 한 별도의 합의를 발표했습니다. 두 회사 간의 계약 조건 차이 — 한 회사는 광범위한 사용 문구를 수용했고 다른 회사는 저항한 것 — 는 국가가 작전상의 필요와 양립할 수 없다고 판단하는 벤더의 제한 사항을 용납하지 않겠다는 행정부의 메시지를 강조했습니다.

Pentagon, Anthropic에 며칠의 기한을 주다 — 법적 도구와 블랙리스트 위협

Pentagon은 선택지를 공급망 리스크에 따른 블랙리스트 지정과 국방물자생산법을 발동하여 특정 행동을 강제하는 것의 두 가지 법적 범주로 구성했습니다. 블랙리스트 지정은 향후 Pentagon 계약을 무효화하고 주요 계약업체들이 관계를 단절하도록 압박하는 것을 의미합니다. 실제로 이는 Anthropic을 정부 수익 및 파트너십의 큰 부분에서 제외시키고, 다른 고객들에게 상업적 관계를 재고하라는 신호를 보낼 것입니다. 이 경고는 징벌적입니다. 즉, 기업이 필터링된 비즈니스 모델과 수익성 높은 정부 사업의 상실 중 하나를 선택하도록 강요하려는 의도입니다.

국방물자생산법(DPA)은 다른 법적 지위를 갖습니다. DPA는 대통령에게 기업이 정부 계약을 우선시하고 수락하며 국가 방위에 필요한 재화와 서비스를 생산하도록 요구할 수 있는 광범위한 권한을 부여합니다. AI의 경우, 공급업체에 모델을 맞춤화하거나 재구성하고, 특정 안전 기능을 제거하거나, 기밀 작업을 위해 설계된 접근 권한을 제공하도록 명령하는 데 사용될 수 있습니다. 소프트웨어 제공업체를 상대로 이러한 방식으로 DPA를 사용하는 것은 전례가 없으며 법적 논쟁의 여지가 있지만, Pentagon 관리들은 이를 이행을 강제할 수 있는 신뢰할 만한 수단으로 제기한 것으로 알려졌습니다.

외부 관찰자들과 법학자들에게 이러한 선택지는 선례와 감독에 대한 즉각적인 의문을 제기합니다. 블랙리스트 지정은 행정적 명령을 통해 공급 환경을 변화시키며, DPA는 제품에 대한 강제적인 기술적 변경을 초래할 것입니다. 두 조치 모두 기업의 자율성, 시민의 자유, 그리고 프론티어 AI의 국제 시장에 영향을 미칩니다.

Anthropic의 안전 장치와 기업의 입장

Anthropic은 공개 문서와 인터뷰를 통해 자사의 안전 체계가 기술적 및 정책적 가드레일의 조합이라고 설명해 왔습니다. 이러한 안전 장치에는 콘텐츠 필터링, 특정 유형의 요청에 대한 거부 모드, "완전 자율 무기" 및 "미국인에 대한 대규모 국내 감시"와 같은 애플리케이션을 금지하는 명시적인 정책 성명이 포함됩니다. 또한 회사는 "모든 합법적 목적"을 지원하겠다는 광범위한 계약 문구에 서명하는 것을 거부해 왔으며, 그러한 문구가 모델이 배치되는 방식에 대한 유의미한 제한을 없앨 것이라고 주장했습니다.

그러나 이러한 입장은 상업적 및 정부적 참여 기록과 병행됩니다. Anthropic은 인프라 파트너와 함께 기밀 네트워크 배치를 추진해 왔으며, 정부 지향적 서비스인 Claude Gov를 출시했고, 국방 고객들과 상당한 규모의 계약을 체결했습니다. 또한 이 회사는 주요 클라우드 및 칩 투자자들을 후원자로 두고 있으며, 군사-정보 생태계와 얽혀 있는 상업적 관계를 맺고 있습니다. 이러한 얽힘은 회사가 국방 우선순위와 완전히 동떨어져 있다는 주장을 복잡하게 만듭니다.

Pentagon이 왜 Anthropic에 AI 안전 장치를 해제할 3일의 시간을 주었는지에 대해 관찰자들은 전략적 압박과 즉각적인 작전 수요가 섞여 있다고 지적합니다. 국방부는 거대 모델을 작전 계획, 군수 및 무기 체계에 신속하게 통합할 수 있는 검증되고 설명 가능한 경로를 원합니다. 특히 "모든 합법적 목적"이라는 법적 기준 하에서 신속하고 제한 없는 사용을 방해할 수 있는 모든 벤더 제한은 Pentagon에 의해 대비 태세에 대한 용납할 수 없는 리스크로 규정되고 있습니다.

블랙리스트 지정과 안전 장치 철회가 실무적으로 의미하는 것

Anthropic이 블랙리스트에 오르면 회사는 많은 국방 기회에 대한 직접적인 접근권을 잃게 됩니다. 계약업체들은 관계를 끊으라는 명령을 받을 수 있으며, 정부 조달 채널은 폐쇄될 것입니다. 반대로 Anthropic이 압박이나 강제에 의해 안전 장치를 제거한다면, 즉각적인 기술적 결과는 타겟팅, 감시 또는 기타 민감한 임무와 관련된 내용을 포함하여 더 넓은 범위의 프롬프트와 작전 지침을 수용하는 모델이 되는 것입니다.

그 하위 효과는 기술적이며 동시에 사회적일 것입니다. 가드레일을 제거하면 모델이 대규모 감시 용도로 전용될 위험이 커지며, 자동화된 모니터링 시스템의 확장 속도가 빨라질 수 있습니다. 이는 인간의 감독이 제한적일 수 있는 무기 지원 시스템으로의 통합을 가속화할 수 있습니다. 안전 관점에서 볼 때, 제약을 완화하면 편향, 환각(hallucination) 및 적대적 취약성에 대해 모델을 테스트하고 감사하는 능력이 저하될 수 있으며, 이는 이미 생명과 직결된 시스템에 모델을 배치하는 것을 위험하게 만드는 요인들입니다.

시민의 자유와 국제 규범 측면에서 그 위험부담은 큽니다. 제한이 제거된 모델은 대규모 국내 감시 프로그램, 대규모의 표적화된 허위 정보 유포, 또는 증거 문턱이 낮은 해외 작전에 사용될 수 있습니다. 이는 회사가 공개적으로 피하고자 한다고 밝힌 바로 그 기회비용들이며, 왜 이 분쟁이 발화점이 되었는지를 설명해 줍니다.

광범위한 영향: 시장, 정치 및 군사 AI의 미래

이번 대립은 AI 생태계의 광범위한 긴장을 보여줍니다. 정부는 전시 애플리케이션 가속화를 위해 가장 유능한 모델에 대해 예측 가능하고 감사 가능한 접근권을 원합니다. 반면 많은 기업은 무제한적인 군사적 사용으로 인한 평판 및 윤리적 역풍을 우려합니다. 이러한 분열은 정치에 의해 더욱 날카로워집니다. 광범위한 계약 문구를 수용하려는 기업은 정부 네트워크에 빠르게 접근할 수 있는 반면, 조건부 제한을 유지하려는 기업은 배제나 강요의 위험을 감수해야 합니다.

또한 이는 냉혹한 작전상의 현실을 강조합니다. 기술적 역량이 전략적으로 필요하다고 판단될 때, 국가는 이를 확보하기 위해 비상한 법적 및 경제적 압력에 의존할 수 있습니다. 이러한 역학 관계는 민간 AI 벤더들이 정부와 협상할 때 상업적 의무, 투자자 기대치, 법적 노출 및 대중의 감시를 저울질하게 만들 것입니다. 정책 입안자들에게 이번 사건은 군사적 맥락에서 AI를 규율하는 투명성, 감독 및 국제 규범에 대한 의문을 제기합니다.

연구자, 엔지니어 및 대중에게 그 결과는 중요합니다. 왜냐하면 그것이 가장 발전된 모델이 어떻게 거버넌스되고 테스트되는지를 결정하기 때문입니다. 만약 업계가 국가 안보라는 이름으로 안전 장치의 일괄 제거를 수용한다면, 독립적인 안전 연구, 공공 감사 및 시민 자유 보호를 위한 공간은 줄어들 것입니다. 반대로 기업들이 일부 제한을 성공적으로 방어한다면, 이 경쟁은 정부가 자체적인 내부 역량을 개발하거나 작전상 필요와 안전 요구 사항의 균형을 맞추는 조달 규칙을 만들도록 압박할 수 있습니다.

당장의 일정은 여전히 촉박합니다. Pentagon의 3일간의 요구는 Anthropic이 경로를 선택해야 한다는 엄청난 압박을 가했습니다. 어떤 결정을 내리든 이 사건은 민간 AI 기업이 프론티어 모델의 군사적 사용에 실질적인 제한을 설정할 수 있는지, 아니면 국가가 국방 대비 태세라는 이름으로 더 넓은 접근권을 강제할 것인지를 가늠하는 시험대가 될 것입니다.

출처

  • U.S. Department of Defense 보도 자료
  • Anthropic 보도 자료 및 공공 정책 문서
  • xAI (Grok) 보도 자료
  • 국방물자생산법(Defense Production Act) (전문 및 법적 지침)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 왜 펜타곤은 앤스로픽에게 AI 안전 장치를 해제하라고 3일의 시간을 주었나요?
A 사용 가능한 출처에는 펜타곤이 앤스로픽에게 AI 안전 장치를 해제하라고 3일의 기한을 주었다는 증거가 없으며, 제공된 기사 제목은 검색 결과로 입증되지 않은 것으로 보입니다. 대신 앤스로픽은 고급 모델을 위한 AI 안전 수준(ASL)을 포함하여 투명성과 위험 제어가 강화된 책임 있는 확장 정책(RSP)을 강화했습니다. 이 회사는 펜타곤의 외부 압력이 아니라 실행 과정에서의 교훈을 바탕으로 RSP를 업데이트했습니다.
Q 앤스로픽이 사용하는 AI 안전 장치는 정확히 무엇인가요?
A 앤스로픽의 AI 안전 장치에는 유해한 화학 및 생물학적 콘텐츠를 차단하는 분류기, 액세스 제어, 레드팀 활동, 버그 바운티, 실시간 탐지 시스템을 특징으로 하는 AI 안전 수준(ASL)이 포함된 책임 있는 확장 정책(RSP)이 포함됩니다. 여기에는 헌법적 분류기(Constitutional Classifiers), 응답 조향(response steering), 계정 집행, 생물무기 개발이나 증류 공격과 같은 오용을 방지하기 위한 평가가 포함됩니다. 안전 장치는 모델 학습, 배포 및 모니터링 전반에 통합되어 출시 요구 사항으로서의 안전을 보장합니다.
Q 기업이 펜타곤의 블랙리스트에 오른다는 것은 무엇을 의미하나요?
A 검색 결과에서는 기업이 펜타곤의 블랙리스트에 오르는 것이 무엇을 의미하는지 명시하지 않았습니다. 펜타곤의 블랙리스트 절차나 앤스로픽과 같은 AI 기업에 미치는 영향에 대한 관련 정보는 제공되지 않았습니다.
Q 앤스로픽이 AI 안전 장치를 해제하면 어떤 일이 일어날 수 있나요?
A 앤스로픽의 RSP가 ASL 보호를 통해 이러한 위험을 완화하도록 설계되었으므로, AI 안전 장치를 해제하면 생물무기 개발이나 위협 행위자에 의한 기타 오용과 같은 고급 AI로 인한 재앙적 위험이 증가할 수 있습니다. 앤스로픽의 정책 근거에 따르면, 이는 안전 장치가 더 취약한 경쟁업체가 시장을 지배하게 하여 전반적으로 덜 안전한 세상을 초래할 수도 있습니다. 그러나 앤스로픽은 경쟁업체의 안전 노력과 일치하거나 이를 능가하겠다는 약속을 유지하고 있습니다.
Q 앤스로픽은 누구이며 AI 안전에 대한 그들의 입장은 무엇인가요?
A 앤스로픽은 클로드(Claude)와 같이 안전하고 신뢰할 수 있는 시스템 개발에 주력하는 AI 기업으로, AI 안전을 강력하게 강조하며 설립되었습니다. 이들의 입장은 AI 안전 수준을 사용하여 고급 모델에 대한 단계적 안전 장치를 시행하고, 투명성, 위험 완화 및 재앙적 피해에 대한 업계 최고의 보호를 촉진하는 책임 있는 확장 정책(RSP)과 관련이 있습니다. 이들은 유용성과 안전의 균형을 맞추기 위해 광범위한 평가, 레드팀 활동 및 집행을 수행합니다.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!