AI vs. 펜타곤: 킬러 로봇을 둘러싼 대치

인공지능
AI vs. Pentagon: Killer Robots Standoff
앤스로픽(Anthropic)이 대량 감시와 완전 자율 살상 무기를 포함한 '모든 합법적 용도'를 허용하는 미 국방부의 계약 조항 수용을 거부하면서, 상용 AI의 군사적 활용 방식을 재편할 수 있는 대치 상황이 촉발되었습니다.

펜타곤이 국내 대량 감시와 자율 살상 능력을 포함하여 군이 상업용 모델을 “모든 합법적 사용”에 이용할 수 있도록 하는 새로운 계약 문구를 추진한 지 일주일도 채 되지 않아, Anthropic은 거부 의사를 밝혔다. 이 회사의 CEO는 국방부의 요구를 공개적으로 거부했으며, 이로 인해 국방부 장관이 공급망 블랙리스트를 위협하고 대통령이 연방 기관에 Anthropic 서비스 이용 중단을 명령하는 등 갈등이 고조되었다. 이 충돌의 중심에 있는 “AI vs. 펜타곤: 킬러 로봇”이라는 문구는 이제 정부 구매자가 강력한 모델에 대한 무제한적인 접근권을 요구할 때 민간 기업이 법적, 윤리적으로 무엇을 거부할 수 있는지에 대한 국가적 논쟁의 틀을 형성하고 있다.

AI vs. 펜타곤: 킬러 로봇, 그리고 “모든 합법적 사용” 요구

당면한 싸움은 계약상의 문제지만, 그 시사점은 훨씬 더 광범위하다. 지난 1월 펜타곤은 AI 제품을 “모든 합법적 사용”에 이용할 수 있도록 하는 업데이트된 약관을 배포했는데, 펜타곤 관리들은 이 문구가 여러 프로그램에 걸친 단편적인 제한을 피하기 위한 것이라고 설명한다. Anthropic에게 걸림돌은 명확했다. 미국인에 대한 국내 대량 감시 금지와 인간의 개입(human in the loop) 없는 완전 자율 살상 무기 금지였다. 회사는 이를 안전 및 신뢰성 우려에 근거한 전사적 차원의 레드라인으로 제시했다.

AI vs. 펜타곤: 킬러 로봇, 대량 감시 및 기업의 레드라인

“모든 합법적 사용”에 대한 보편적 라이선스를 거부한 Anthropic의 입장은 많은 경쟁사가 펜타곤의 문구를 수용한 것으로 알려진 가운데 주목할 만하다. 이러한 이견은 유사한 상업적 결정을 사실상의 정책 선택으로 바꾸어 놓았다. 찬성하는 기업은 군이 추가 협상을 최소화하면서 추구할 수 있는 용도 범위를 사실상 넓혀주는 셈이며, 반대하는 기업은 정부가 다른 공급업체를 찾거나 자체 역량을 구축하도록 강요하게 된다. 기술 업계 종사자, 시민 자유 단체 및 투자자들은 국가 안보 구매자의 경제적, 정치적 권력에 직면했을 때 이러한 기업의 레드라인이 유지될 수 있을지 지켜보고 있다.

자율 무기의 기술적 및 윤리적 이해관계

기자, 엔지니어, 윤리학자들이 “킬러 로봇”과 같은 약칭을 사용할 때, 이들은 의미 있는 인간의 통제 없이 살상력을 선택하고 행사할 수 있는 시스템을 지칭한다. 기술적 문제는 난해하다. 인식 오류, 적대적 오탐(adversarial false positives), 맥락 오해, 예측 불가능한 소프트웨어 장애 등이 모두 전투에서 재앙적인 결과를 초래할 수 있다. AI 모델은 데이터를 기반으로 학습된 통계적 패턴 매칭 장치일 뿐이며, 이해관계가 첨예하고 모호한 환경에서 도덕적 주체나 신뢰할 수 있는 의사 결정자가 아니다.

윤리적 위험은 기술적 오류를 훨씬 뛰어넘는다. 자율 살상 능력은 책임성(기계가 살상했을 때 누가 책임을 지는가?), 고조(자동화된 표적 설정에 적들이 어떻게 대응하는가?), 차별(기계 시스템이 민간인을 전투원으로 오인하는 편향을 복제하거나 증폭시킬 수 있음)에 대한 문제를 제기한다. 많은 윤리학자는 자동화로 인해 의사 결정 루프가 빨라질 경우 분쟁에 개입하기 위한 정치적 문턱이 낮아질 수 있다고 경고한다. 이러한 이유로 일부 정책 입안자와 옹호론자들은 인간의 통제 없이 작동하는 시스템에 대한 엄격한 제한이나 금지를 압박하는 반면, 다른 이들은 시스템의 안전성이 입증될 때까지 신중하게 제한된 R&D와 강력한 인간 개입 요건을 주장한다.

계약법, 공급망 리스크, 그리고 펜타곤의 AI 기반 감시 규제 방식

펜타곤은 AI 사용 사례를 구체적으로 다루는 포괄적인 법령이 아니라, 주로 계약 문구, 승인 및 획득 정책을 통해 상업용 기술의 사용을 규제한다. 국방부가 계약업체에 “모든 합법적 사용”을 수용하도록 요구하는 것은 광범위한 권한을 확보하기 위해 계약 조항을 활용하는 것이다. 이 문구는 여러 과업 지시서와 프로그램에 걸쳐 협상을 반복하는 것을 피하기 위한 의도다. 그러나 “합법적”이라는 의미에 법 집행이나 정보 활동과 관련된 국내 감시가 포함될 수 있을 때, 이는 헌법 및 법률상의 문제를 야기한다.

특정 업체를 “공급망 리스크”로 규정하는 것은 연방 기관과 대형 국방 계약업체가 해당 공급업체에서 벗어나도록 유도하고 제3자 통합을 위축시킬 수 있는 구체적인 결과를 초래하는 행정적 도구다. 국방물자생산법(Defense Production Act)이나 유사한 권한을 사용하겠다는 펜타곤의 위협은 획득법이 준수를 강요하는 지렛대가 될 수 있음을 강조하지만, 이러한 지렛대는 정치적으로 민감하며 소송을 유발할 수 있다. 따라서 누가 레드라인을 설정하느냐는 기업 정책, 정부 내부 메모, 의회의 감독, 때로는 사법적 검토가 뒤섞인 쟁탈의 영역이 된다.

킬러 로봇은 실제 위협인가? 국제 규칙 및 현재의 한계

자율 시스템이 살상력 행사에 사용될 위험은 가설이 아니다. 군은 감지, 표적 설정 및 타격 시스템의 자동화를 적극적으로 추진하고 있다. 그럼에도 불구하고, 세계는 아직 완전 자율 살상 무기에 대한 구속력 있는 국제적 금지안에 합의하지 못했다. 유엔의 특정재래식무기금지협약(CCW)은 살상용 자율 무기 시스템에 대해 수년 동안 논의를 진행해 왔으나, 아직까지 이러한 시스템을 금지하는 조약을 만들어내지는 못했다. NGO, 일부 국가 및 기술 기업 연합은 강력한 국제적 제한을 요구하고 있으나, 다른 국가들은 작전의 자유를 추구하며 조약에 의한 제약에 저항하고 있다.

국가 차원에서 정책 조합은 여전히 파편화되어 있다. 일부 국가는 엄격한 인간 개입 규칙을 선호하고, 다른 국가들은 역량과 억제력을 강조한다. 보편적인 조약의 부재는 오늘날 거버넌스의 상당 부분이 수출 통제, 구매 결정 및 기업 정책에 의해 형성됨을 의미한다. 이러한 파편화야말로 공급업체의 레드라인과 민간 계약을 중요하게 만드는 요인이다. 이들은 규제의 공백을 메우지만 압박 속에서 뒤바뀔 수도 있다.

향후 전망 및 중요성

당장의 다음 단계는 법적, 정치적 대응이 될 것이다. Anthropic은 자사의 사업을 저해하는 모든 지정에 대해 소송을 제기할 것임을 시사했다. 펜타곤은 계약업체와 주 공급업체에 비협조적인 공급업체에 대한 의존도를 최소화하도록 압박할 수 있다. 의회는 청문회를 개최할 수 있으며, 여러 공익 단체들은 감독을 요구할 것이다. 실무적으로 Anthropic의 모델을 이미 사용 중인 연방 프로그램들은 기관이 사용 중단 명령을 준수할 경우 전환 계획이 필요하며, 이는 복잡하고 비용이 많이 들며 잠재적으로 파괴적인 과정이 될 것이다.

법정과 예산 항목을 넘어, 이번 사건은 더 광범위한 질문을 던진다. 국가 안보 고객이 작전상 필요성을 주장할 때, 상업용 AI 공급업체가 계약을 통해 정부의 기술 사용 방식을 제한하도록 허용해야 하는가? 그 답은 미래의 전쟁, 국내 치안 유지, 공공-민간 보안 파트너십의 구조를 결정할 것이다. 시장 지배력과 평판에 대한 압박이 현재 위험한 사용에 대한 주요 제동 장치라면, 긴박한 국방 요구에 직면했을 때의 그 내구성이 민주 사회가 AI에 대한 의미 있는 가드레일을 설정할 수 있는지 여부를 결정할 것이다.

따라서 Anthropic과 펜타곤의 충돌은 단순히 한 기업의 약관과 한 정부의 조달 우선순위에 대한 분쟁이 아니다. 이는 첨단 시스템이 국가 권력과 만날 때 정책, 기술, 윤리가 어떻게 충돌하는지를 보여주는 생생한 사례 연구다. 기업, 법원, 입법부가 이를 어떻게 해결하느냐에 따라 차세대 군사 AI가 인간의 판단과 민주적 감독에 의해 제약될지, 아니면 계약 조항과 이면의 예외 조항에 의해 좌우될지가 결정될 것이다.

출처

  • 미국 국방부 (공개 성명 및 획득 메모)
  • Anthropic (기업 보도 자료)
  • 백악관 (공개 성명 및 행정 지침)
  • 유엔 — 특정재래식무기금지협약(CCW) 회의 보고서 및 요약
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 자율 무기와 군사적 AI 활용의 윤리적 위험은 무엇인가요?
A 자율 무기는 민간인과 전투원을 구분하지 못할 가능성, 안면 인식 및 생체 데이터를 기반으로 소수자에게 불균형적으로 영향을 미치는 표적 선정 과정의 잠재적 편향성, 생사 결정에 대한 의미 있는 인간의 통제력 상실 등 여러 심각한 윤리적 위험을 안고 있습니다. 알고리즘은 인간의 가치를 이해하거나 도덕적 판단을 내릴 수 없으므로, 자율 시스템이 민간인 사상자를 발생시키거나 특정 집단에 대한 선택적 폭력을 가능하게 할 때 책임 소재에 대한 우려가 제기됩니다.
Q 펜타곤(미 국방부)은 AI 기반 감시 및 대량 감시 프로그램을 어떻게 규제하나요?
A 검색 결과에는 AI 기반 감시 및 대량 감시 프로그램에 대한 펜타곤의 규제와 관련된 구체적인 정보가 포함되어 있지 않습니다. 이 질문에 정확하게 답하려면 펜타곤의 감시 정책 및 감독 체계에 집중한 추가 자료가 필요합니다.
Q AI 국방 정책에서 '레드 라인'은 무엇을 의미하며, 누가 이를 설정하나요?
A 검색 결과에는 AI 국방 정책에서의 '레드 라인'에 대한 명시적인 정의나 이를 설정하는 주체가 누구인지에 대한 정보가 제공되지 않습니다. 출처들이 자율 무기에 대한 도덕적 및 법적 경계를 언급하고는 있지만, '레드 라인'의 개념이나 이를 설정하는 책임이 있는 제도적 행위자에 대해서는 구체적으로 다루지 않습니다.
Q 킬러 로봇은 실질적인 위협인가요? 그리고 이를 방지하기 위해 어떤 정책들이 존재하나요?
A 킬러 로봇은 현실적인 단기적 위협입니다. 전문가들은 자율 무기 배치가 수십 년이 아닌 수년 내에 가능하다고 지적합니다. 살상용 자율 무기 시스템의 전면 금지 요구를 포함하여 여러 정책이 제안되었습니다. 비록 미국 정부는 현재 전면적인 금지를 지지하지는 않으나, 대신 2018년 백서와 같은 정책 프레임워크를 통해 윤리적 문제를 다루고 있습니다.
Q 살상용 자율 무기를 규제하거나 금지하기 위한 국제적 노력의 현재 상태는 어떠한가요?
A 살상용 자율 무기를 규제하려는 국제적 노력은 여전히 미완성 상태이며, 현재까지 구속력 있는 글로벌 금지 조치는 마련되지 않았습니다. 2015년 7월 국제 AI 컨퍼런스에서 금지를 촉구하는 공개 서한이 발표되기도 했으나, 전문가들은 AI 기술의 군사적 유용성 때문에 전면 금지에 대한 국제적 합의를 이끌어내는 것이 비현실적임을 인정하고 있습니다. 다만, 자율 무기의 불확실성을 제한하고 의미 있는 인간의 통제를 보장하기 위한 프레임워크에 대한 논의는 계속되고 있습니다.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!