펜타곤이 국내 대량 감시와 자율 살상 능력을 포함하여 군이 상업용 모델을 “모든 합법적 사용”에 이용할 수 있도록 하는 새로운 계약 문구를 추진한 지 일주일도 채 되지 않아, Anthropic은 거부 의사를 밝혔다. 이 회사의 CEO는 국방부의 요구를 공개적으로 거부했으며, 이로 인해 국방부 장관이 공급망 블랙리스트를 위협하고 대통령이 연방 기관에 Anthropic 서비스 이용 중단을 명령하는 등 갈등이 고조되었다. 이 충돌의 중심에 있는 “AI vs. 펜타곤: 킬러 로봇”이라는 문구는 이제 정부 구매자가 강력한 모델에 대한 무제한적인 접근권을 요구할 때 민간 기업이 법적, 윤리적으로 무엇을 거부할 수 있는지에 대한 국가적 논쟁의 틀을 형성하고 있다.
AI vs. 펜타곤: 킬러 로봇, 그리고 “모든 합법적 사용” 요구
당면한 싸움은 계약상의 문제지만, 그 시사점은 훨씬 더 광범위하다. 지난 1월 펜타곤은 AI 제품을 “모든 합법적 사용”에 이용할 수 있도록 하는 업데이트된 약관을 배포했는데, 펜타곤 관리들은 이 문구가 여러 프로그램에 걸친 단편적인 제한을 피하기 위한 것이라고 설명한다. Anthropic에게 걸림돌은 명확했다. 미국인에 대한 국내 대량 감시 금지와 인간의 개입(human in the loop) 없는 완전 자율 살상 무기 금지였다. 회사는 이를 안전 및 신뢰성 우려에 근거한 전사적 차원의 레드라인으로 제시했다.
AI vs. 펜타곤: 킬러 로봇, 대량 감시 및 기업의 레드라인
“모든 합법적 사용”에 대한 보편적 라이선스를 거부한 Anthropic의 입장은 많은 경쟁사가 펜타곤의 문구를 수용한 것으로 알려진 가운데 주목할 만하다. 이러한 이견은 유사한 상업적 결정을 사실상의 정책 선택으로 바꾸어 놓았다. 찬성하는 기업은 군이 추가 협상을 최소화하면서 추구할 수 있는 용도 범위를 사실상 넓혀주는 셈이며, 반대하는 기업은 정부가 다른 공급업체를 찾거나 자체 역량을 구축하도록 강요하게 된다. 기술 업계 종사자, 시민 자유 단체 및 투자자들은 국가 안보 구매자의 경제적, 정치적 권력에 직면했을 때 이러한 기업의 레드라인이 유지될 수 있을지 지켜보고 있다.
자율 무기의 기술적 및 윤리적 이해관계
기자, 엔지니어, 윤리학자들이 “킬러 로봇”과 같은 약칭을 사용할 때, 이들은 의미 있는 인간의 통제 없이 살상력을 선택하고 행사할 수 있는 시스템을 지칭한다. 기술적 문제는 난해하다. 인식 오류, 적대적 오탐(adversarial false positives), 맥락 오해, 예측 불가능한 소프트웨어 장애 등이 모두 전투에서 재앙적인 결과를 초래할 수 있다. AI 모델은 데이터를 기반으로 학습된 통계적 패턴 매칭 장치일 뿐이며, 이해관계가 첨예하고 모호한 환경에서 도덕적 주체나 신뢰할 수 있는 의사 결정자가 아니다.
윤리적 위험은 기술적 오류를 훨씬 뛰어넘는다. 자율 살상 능력은 책임성(기계가 살상했을 때 누가 책임을 지는가?), 고조(자동화된 표적 설정에 적들이 어떻게 대응하는가?), 차별(기계 시스템이 민간인을 전투원으로 오인하는 편향을 복제하거나 증폭시킬 수 있음)에 대한 문제를 제기한다. 많은 윤리학자는 자동화로 인해 의사 결정 루프가 빨라질 경우 분쟁에 개입하기 위한 정치적 문턱이 낮아질 수 있다고 경고한다. 이러한 이유로 일부 정책 입안자와 옹호론자들은 인간의 통제 없이 작동하는 시스템에 대한 엄격한 제한이나 금지를 압박하는 반면, 다른 이들은 시스템의 안전성이 입증될 때까지 신중하게 제한된 R&D와 강력한 인간 개입 요건을 주장한다.
계약법, 공급망 리스크, 그리고 펜타곤의 AI 기반 감시 규제 방식
펜타곤은 AI 사용 사례를 구체적으로 다루는 포괄적인 법령이 아니라, 주로 계약 문구, 승인 및 획득 정책을 통해 상업용 기술의 사용을 규제한다. 국방부가 계약업체에 “모든 합법적 사용”을 수용하도록 요구하는 것은 광범위한 권한을 확보하기 위해 계약 조항을 활용하는 것이다. 이 문구는 여러 과업 지시서와 프로그램에 걸쳐 협상을 반복하는 것을 피하기 위한 의도다. 그러나 “합법적”이라는 의미에 법 집행이나 정보 활동과 관련된 국내 감시가 포함될 수 있을 때, 이는 헌법 및 법률상의 문제를 야기한다.
특정 업체를 “공급망 리스크”로 규정하는 것은 연방 기관과 대형 국방 계약업체가 해당 공급업체에서 벗어나도록 유도하고 제3자 통합을 위축시킬 수 있는 구체적인 결과를 초래하는 행정적 도구다. 국방물자생산법(Defense Production Act)이나 유사한 권한을 사용하겠다는 펜타곤의 위협은 획득법이 준수를 강요하는 지렛대가 될 수 있음을 강조하지만, 이러한 지렛대는 정치적으로 민감하며 소송을 유발할 수 있다. 따라서 누가 레드라인을 설정하느냐는 기업 정책, 정부 내부 메모, 의회의 감독, 때로는 사법적 검토가 뒤섞인 쟁탈의 영역이 된다.
킬러 로봇은 실제 위협인가? 국제 규칙 및 현재의 한계
자율 시스템이 살상력 행사에 사용될 위험은 가설이 아니다. 군은 감지, 표적 설정 및 타격 시스템의 자동화를 적극적으로 추진하고 있다. 그럼에도 불구하고, 세계는 아직 완전 자율 살상 무기에 대한 구속력 있는 국제적 금지안에 합의하지 못했다. 유엔의 특정재래식무기금지협약(CCW)은 살상용 자율 무기 시스템에 대해 수년 동안 논의를 진행해 왔으나, 아직까지 이러한 시스템을 금지하는 조약을 만들어내지는 못했다. NGO, 일부 국가 및 기술 기업 연합은 강력한 국제적 제한을 요구하고 있으나, 다른 국가들은 작전의 자유를 추구하며 조약에 의한 제약에 저항하고 있다.
국가 차원에서 정책 조합은 여전히 파편화되어 있다. 일부 국가는 엄격한 인간 개입 규칙을 선호하고, 다른 국가들은 역량과 억제력을 강조한다. 보편적인 조약의 부재는 오늘날 거버넌스의 상당 부분이 수출 통제, 구매 결정 및 기업 정책에 의해 형성됨을 의미한다. 이러한 파편화야말로 공급업체의 레드라인과 민간 계약을 중요하게 만드는 요인이다. 이들은 규제의 공백을 메우지만 압박 속에서 뒤바뀔 수도 있다.
향후 전망 및 중요성
당장의 다음 단계는 법적, 정치적 대응이 될 것이다. Anthropic은 자사의 사업을 저해하는 모든 지정에 대해 소송을 제기할 것임을 시사했다. 펜타곤은 계약업체와 주 공급업체에 비협조적인 공급업체에 대한 의존도를 최소화하도록 압박할 수 있다. 의회는 청문회를 개최할 수 있으며, 여러 공익 단체들은 감독을 요구할 것이다. 실무적으로 Anthropic의 모델을 이미 사용 중인 연방 프로그램들은 기관이 사용 중단 명령을 준수할 경우 전환 계획이 필요하며, 이는 복잡하고 비용이 많이 들며 잠재적으로 파괴적인 과정이 될 것이다.
법정과 예산 항목을 넘어, 이번 사건은 더 광범위한 질문을 던진다. 국가 안보 고객이 작전상 필요성을 주장할 때, 상업용 AI 공급업체가 계약을 통해 정부의 기술 사용 방식을 제한하도록 허용해야 하는가? 그 답은 미래의 전쟁, 국내 치안 유지, 공공-민간 보안 파트너십의 구조를 결정할 것이다. 시장 지배력과 평판에 대한 압박이 현재 위험한 사용에 대한 주요 제동 장치라면, 긴박한 국방 요구에 직면했을 때의 그 내구성이 민주 사회가 AI에 대한 의미 있는 가드레일을 설정할 수 있는지 여부를 결정할 것이다.
따라서 Anthropic과 펜타곤의 충돌은 단순히 한 기업의 약관과 한 정부의 조달 우선순위에 대한 분쟁이 아니다. 이는 첨단 시스템이 국가 권력과 만날 때 정책, 기술, 윤리가 어떻게 충돌하는지를 보여주는 생생한 사례 연구다. 기업, 법원, 입법부가 이를 어떻게 해결하느냐에 따라 차세대 군사 AI가 인간의 판단과 민주적 감독에 의해 제약될지, 아니면 계약 조항과 이면의 예외 조항에 의해 좌우될지가 결정될 것이다.
출처
- 미국 국방부 (공개 성명 및 획득 메모)
- Anthropic (기업 보도 자료)
- 백악관 (공개 성명 및 행정 지침)
- 유엔 — 특정재래식무기금지협약(CCW) 회의 보고서 및 요약
Comments
No comments yet. Be the first!