미 국방부, 대량 감시용 AI 사용 제한 두고 앤스로픽에 경고

인공지능
Pentagon Threatens Anthropic Over Limiting AI Use for Mass Surveillance
미 국방부가 앤스로픽(Anthropic)에 대해 자사 AI의 군사적 활용에 대한 안전 제한을 해제하지 않을 경우, 해당 기업을 블랙리스트에 올리거나 국방물자생산법(DPA)을 발동하겠다고 경고했습니다. 이번 대립은 국가 안보 요구와 기업의 안전 서약, 그리고 시민 자유 사이의 긴장 관계를 여실히 보여줍니다.

펜타곤의 최후통첩과 압박받는 기업의 안전 서약

이번 주 미 국방부는 Anthropic에 직설적인 메시지를 전달했습니다. 군의 접근 요구를 준수하지 않을 경우 결과에 직면하게 될 것이라는 내용으로, 이는 왜 "펜타곤의 Anthropic 보복 위협"이라는 문구가 현재 정책 의제로 떠올랐는지를 명확히 보여주는 사례입니다. 여러 소식통이 묘사한 회의에서 Pete Hegseth 국방장관은 회사가 자사 AI 시스템의 사용 방식에 대한 제한을 제거하도록 마감 기한을 정했으며, 펜타곤이 Anthropic을 "공급망 리스크"로 선언하고 미국 정부 계약에서 제외하거나, 심지어 국방물자생산법(Defense Production Act)을 발동해 협력을 강제할 수 있다고 경고했습니다. CEO Dario Amodei가 자율 무기 및 국내 감시 위험에 대해 공개적으로 경고해 온 이 회사는 회의 직후 핵심 안전 서약을 폐기한다고 발표했으며, 이러한 타이밍은 시민 자유 옹호론자들과 AI 안전 연구원들 사이에서 우려를 불러일으키고 있습니다.

이 대립은 신생 AI 기업을 상업적 경쟁, 국가 안보의 당위성, 그리고 헌법적 우려가 교차하는 지점에 놓이게 했습니다. Anthropic은 이전에 자사 모델이 완전 자율 무기화에 사용되거나, 사적인 대화나 가정용 센서 데이터를 처리하여 시민을 프로파일링할 수 있는 대량 감시에 허용되는 것에 대해 주의를 표명해 왔습니다. 광범위하고 제한 없는 접근을 요구하는 펜타곤의 요구는 모델로부터 발생하는 다운스트림 피해를 제한하려는 기업들의 신흥 패턴을 뒤집는 것이며, 조달 우선순위가 정부 권력과 충돌할 때 안전 공약이 어떻게 살아남을 수 있는지에 대한 어려운 질문을 제기합니다.

펜타곤의 Anthropic 보복 위협: 지렛대 도구들

펜타곤의 지렛대는 절차적인 동시에 법적입니다. 특정 회사를 공급망 리스크로 선언하는 것은 수익성 높은 국방 계약 및 파트너 생태계에 대한 접근을 동결시킬 수 있으며, 이는 기업의 시장을 빠르게 위축시킬 수 있는 실질적인 처벌입니다. 국방물자생산법은 더 극단적인 수단입니다. 이는 행정부에 국가 방위를 명목으로 산업 생산물의 우선순위를 정하고 배분할 수 있는 특별 권한을 부여하며, 관계자들은 군이 필요하다고 판단하는 기술을 생산하거나 수정하도록 기업을 강제하는 데 이 법이 동원될 수 있다고 말합니다. 법률 전문가들은 AI 모델에 대한 접근을 강제하기 위해 이 법을 사용하는 것은 아직 검증되지 않은 영역이며, 법원이 이 법령이 상업용 AI 플랫폼과 그 안전 정책에도 적용되는지 여부를 결정해 달라는 요청을 받을 수 있다고 경고합니다.

법적 메커니즘 외에도 펜타곤은 조달 규범과 비공식적 압력을 통해 영향력을 행사합니다. 정부 기관은 광범위한 사용 조항을 수용하는 공급업체에 특혜를 주어 공공 및 민간 파트너들을 국방 우선순위와 일치하는 벤더로 유도할 수 있습니다. 현대의 국방 생태계는 장기 계약, 데이터 공유 파트너십, 인증된 공급업체 목록을 기반으로 구축되기 때문에 이러한 종류의 시장 압력은 공식적인 블랙리스트 지정만큼이나 중요합니다. 정부 고객을 확보하려는 AI 기업에 있어 정렬되지 않음의 결과는 즉각적이고 전략적입니다.

펜타곤의 Anthropic 보복 위협: Anthropic 정책의 내용

이번 주까지 Anthropic은 자사의 주력 모델이 특정 군사 및 감시 용도로 사용되는 것을 제한하기 위한 일련의 안전 가드레일을 추진해 왔습니다. CEO Dario Amodei는 완전 자율 무기가 필수적인 인간 판단의 안전장치를 제거하며, 감시 시스템에 AI를 무분별하게 통합할 경우 사적인 대화와 가정 내 데이터가 정치적 프로파일링에 사용되어 수정헌법 제4조의 보호를 약화시킬 수 있다고 공개적으로 주장해 왔습니다. 이 회사의 안전 서약은 시민권 단체와 AI 윤리학자들로부터 민간인과 민주적 규범에 해를 끼칠 가능성이 가장 높다고 판단되는 애플리케이션을 제한하려는 전향적인 시도로 해석되어 왔습니다.

펜타곤 회의 이후, Anthropic은 해당 핵심 안전 정책을 폐기한다고 발표했습니다. 회사는 공개 성명에서 책임 있는 배포에 계속 전념하고 있다고 밝혔지만, 정책 변경이 압박에 의한 것인지 아니면 정부 사업을 유지하기 위한 협상된 경로의 일부인지에 대해서는 설명하지 않았습니다. 이러한 모호함은 이제 갈등의 불씨가 되었습니다. 비판론자들은 이를 국가의 강압에 의한 기업의 후퇴로 보는 반면, 지지자들은 국가 방위 업무를 위한 필수적인 타협일 수 있다고 주장합니다. 법률 분석가들은 강제적인 정책 철회가 민간 기업의 윤리적 경계 설정 능력에 좋지 못한 선례를 남길 것이라고 지적합니다.

로비, 계약업체 및 변화하는 AI 조달 지형

Anthropic 사태는 인공지능을 둘러싸고 급격히 고조되는 로비 활동을 배경으로 전개되고 있습니다. 연방 공시 자료 분석에 따르면 AI는 틈새 정책 주제에서 국방 및 기업 옹호의 중심 구성 요소로 이동했습니다. 기성 국방 계약업체들은 익숙한 플랫폼과 획득 노력에 AI 용어를 붙이기 시작했고, 새로운 전문 스타트업들은 자율 시스템, 전장 매핑 및 감시 애플리케이션을 위해 로비를 벌이고 있습니다. 그 결과 군 계획가, 선출직 공무원 및 산업 종사자들이 이미 AI 역량을 예산 및 조달 파이프라인에 묶어두기 위해 협력하는 정책 환경이 조성되었습니다.

국방 시장의 중심에 서고자 하는 기업들에게 전략적 로비와 광범위한 사용 조항을 수용하려는 의지는 결정적일 수 있습니다. 이러한 역학 관계는 AI 기업들이 대외적인 안전 공약을 유지하는 것과 수익성이 높은 장기 정부 계약을 확보하는 것 사이에서 선택해야 하는 압박을 가중시킵니다. 만약 군사적 용도에 대한 개방적 접근을 시장 참여의 조건으로 만들려는 펜타곤의 위협이 성공한다면, 안전을 중시하는 기업들은 공적인 입장을 재조정하거나 상업적 소외의 위험을 감수해야 할 수도 있습니다.

감시 리스크: AI가 관찰 및 프로파일링을 확장하는 방식

시민 자유론자들이 우려하는 이유를 이해하려면 AI가 도처에 널린 센서와 결합될 때 무엇이 가능해지는지 알아야 합니다. 현대적인 모델은 비디오 피드, 오디오 녹음, 위치 추적 및 소셜 미디어 신호를 수집하고 상관관계를 분석하여 얼굴을 식별하고, 음성을 인식하며, 행동을 추론하고 패턴을 탐지할 수 있습니다. 도처에 널린 카메라, 드론, 소비자 기기와 결합된 이러한 시스템은 대규모 대량 감시에 사용될 수 있습니다. 자동화된 요주의 인물 추적, 관계를 매핑하는 네트워크 추론, 감정이나 정치적 견해 라벨링, 알고리즘 프로필을 기반으로 개인을 지목하는 예측 치안 등이 그 예입니다.

정부가 민간 기술 기업을 압박할 때 발생하는 법적·윤리적 긴장

정부 기관이 기업에 군사적 또는 감시용 접근 확대를 압박할 때, 여러 법적 및 윤리적 문제가 동시에 발생합니다. 헌법적 질문이 있습니다. 특히 감시에 대한 수정헌법 제4조의 영향과 알고리즘 프로파일링이 정치적 발언을 위축시킬 수 있는 수정헌법 제1조 관련 우려입니다. 조달 조건이 자발적인 기업 안전 기준을 무시할 수 있는지에 대한 계약 및 상업적 질문도 존재합니다. 또한 특정 AI 지원 무기 시스템이 인도주의적 규범과 교전 수칙을 준수하는지에 대한 국제법 및 군비 통제 문제도 있습니다.

전문가들은 거버넌스 리스크에 대해서도 경고합니다. 정부가 한 주요 공급업체에 안전 가드레일을 해제하도록 성공적으로 강요한다면, 다른 기업들도 경쟁력을 유지하기 위해 뒤를 따를 수 있으며 이는 안전장치에 대한 하향 평준화 경쟁을 가속화할 수 있습니다. 반대로 안전 의식이 있는 기업에 준수를 강제하는 것은 소송, 규제적 반발, 기술 분야에서의 행정권 한계에 대한 공적 논쟁을 유발할 수 있습니다.

AI 산업에 미치는 결과와 공적 감시

이 대결의 즉각적인 결과는 기업의 안전 이니셔티브를 위축시킬 가능성이 높습니다. 법무 팀과 로비력이 부족한 중소기업들은 계약 당국이 군사 및 감시 용도에 대한 개방성에 보상할 경우, 원칙적인 제한을 유지하는 것이 경제적으로 불가능하다는 것을 깨닫게 될 수 있습니다. 이는 제품 정책뿐만 아니라 R&D 선택, 채용, 기업이 추구하는 파트너십의 종류까지 재편할 것입니다.

정책 입안자와 시민 사회에 이번 사태는 이중 용도 AI 기술 거버넌스가 왜 중요한지를 강조합니다. 조달 결정 방식에 대한 투명성, 감시 및 자율 무기에 대한 명확한 법적 경계, 그리고 국방물자생산법과 같은 비상 권한에 대한 강력한 의회 또는 사법적 감시는 모두 안전 기준의 강제적 침식을 방지하는 요소들입니다. 따라서 Anthropic을 둘러싼 논쟁은 단지 한 기업에 관한 것이 아닙니다. 이는 AI 시대에 민주적 제도들이 안보, 기술, 그리고 시민 자유 사이의 절충점을 어떻게 중재할 것인지에 대한 시험대입니다.

Sources

  • OpenSecrets (인공지능에 관한 연방 로비 공시 자료 분석)
  • 미 국방부 (국방물자생산법을 포함한 성명 및 조달 권한)
  • Anthropic (기업 성명 및 공공 정책 문서)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 앤스로픽(Anthropic)이 대량 감시를 위한 AI 사용을 금지할 경우 펜타곤이 보복을 위협하는 이유는 무엇인가요?
A 펜타곤이 보복을 위협하는 이유는 대량 감시 및 자율 무기에 대한 AI 사용을 금지하는 앤스로픽의 계약상 제한 사항이 작전 수행 시 '모든 합법적 용도'를 요구하는 군의 수요와 충돌하기 때문이며, 군은 이를 작전상 필수적인 요소로 보고 있습니다. 당국자들은 이러한 안전 장치가 군사 임무에는 비현실적이라고 주장하며, 앤스로픽이 마감일까지 동의하지 않을 경우 국방물자생산법(Defense Production Act)을 발동하여 강제로 이행하게 하겠다고 위협했습니다. 이는 앤스로픽이 기밀 시스템에 대한 접근 확대에 저항하고 있는 2억 달러 규모의 시범 프로그램에서 비롯되었습니다.
Q 대량 감시를 위한 AI 사용에 대한 앤스로픽의 정책은 무엇인가요?
A 앤스로픽의 정책에는 자사의 AI 모델이 미국 시민에 대한 대량 감시에 사용되거나 인간의 감독이 결여된 치명적인 자율 살상 무기에 통합되는 것을 금지하는 계약상 안전 장치가 포함되어 있습니다. 이러한 제한은 국방 시장 진입 이후 유지해 온 것으로, 책임 있는 사용을 보장하고 법적 리스크를 관리하는 것을 목표로 합니다. 회사는 펜타곤의 압박에도 불구하고 이러한 용도에 대한 사용 금지 확답을 구하고 있습니다.
Q AI가 대량 감시에 어떻게 사용될 수 있으며, 프라이버시 우려 사항은 무엇인가요?
A AI는 방대한 양의 항공 이미지, 소셜 미디어 데이터 또는 공공 기록을 분석하여 영장 없이 개인이나 인구 집단을 추적함으로써 군사 정보 수집 능력을 강화하는 방식으로 대량 감시에 활용될 수 있습니다. 프라이버시 우려 사항으로는 영장 없는 미국 시민 모니터링을 통한 시민 자유 침해, 데이터 처리 과정의 감독 부재, 국내 또는 그레이 존(grey-zone) 작전에서의 남용 가능성 등이 있습니다. 이러한 문제는 부당한 수색으로부터 보호하는 기존 법적 틀과도 연관됩니다.
Q 정부 기관이 감시 기술과 관련하여 AI 기업을 압박할 때 어떤 법적 또는 윤리적 문제가 발생하나요?
A 법적 문제로는 펜타곤이 계약을 무효화하기 위해 국방물자생산법을 오용할 가능성이 있으며, 이는 특정 용도를 위한 민간 기술에 대한 정부의 강제력 대 기업의 권리 문제를 야기합니다. 윤리적으로는 군사적 작전 필요성과 AI 안전 장치가 대립하게 되며, 비판론자들은 당국자와 CEO 간의 양자 협상이 아니라 의회가 규칙을 정해야 한다고 주장합니다. 이는 민주적 감독 및 변혁적인 군사 AI에 대한 지속 가능한 제약에 관한 긴장을 조성합니다.
Q 펜타곤의 압박이 AI 개발 및 산업 표준에 어떤 영향을 미칠 수 있나요?
A 펜타곤의 압박은 AI 기업들이 안전 가드레일을 포기하게 만들고, 국방 계약에서 '모든 합법적 용도'를 표준화하며, 윤리적 제한 없이 군사 AI 통합을 가속화할 수 있습니다. 이는 오픈AI(OpenAI)나 xAI와 같은 기업들이 순응하는 반면 앤스로픽과 같이 순응하지 않는 기업들을 고립시켜, 산업 규범이 원칙보다는 실용주의 쪽으로 흐르도록 영향을 줄 수 있습니다. 장기적으로 이는 AI 개발에 대한 정부의 영향력 행사에 선례를 남겨 국제 계약 및 혁신 우선순위에 잠재적인 영향을 미칠 수 있습니다.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!