중국, AI 규제 고삐 죈다

인공지능
China Tightens the Reins on AI
중국 정부가 혁신을 저해하지 않으면서도 거대언어모델(LLM)의 정치적 안전성을 유지하기 위해 엄격한 규제와 집행 조치를 발표했습니다. 이 방식은 데이터 필터링, 이념 테스트, 로깅 및 신속한 콘텐츠 삭제 등을 결합하고 있습니다.

베이징, AI를 정치적으로 관리 가능하게 만들기 위해 빠르게 움직여

규제 구조

중국 당국은 사이버 공간 규제 기관, 사이버 보안 경찰, 국가 연구소 및 주요 기술 기업이 표준 초안 작성에 참여하는 광범위한 규제 연합을 구성했습니다. 이 문서는 훈련 데이터셋의 인간 샘플링, 모델에 대한 월간 이념 퀴즈, AI 생성 콘텐츠의 명시적 표시 및 사용자 상호 작용의 의무적 기록 등 기술 및 거버넌스 요구 사항을 결합하여 규정하고 있습니다. 당국자들은 이 노력을 사회적 안정을 보호하는 것으로 규정하며, 심지어 지진이나 전염병과 함께 AI를 국가 비상 계획 체계에 추가하기도 했습니다.

당국자들은 또한 좁지만 절대적인 레드라인을 강조합니다. "국가 권력 전복 및 사회주의 체제 타도 선동"으로 판단되는 모든 것은 금지됩니다. 이 규정은 폭력 조장부터 타인의 초상권 불법 사용에 이르기까지 31가지의 뚜렷한 위험 요소를 나열하고 있으며, 기업은 훈련 자료를 수집할 때와 서비스를 배포할 때 이를 걸러내야 합니다.

데이터 다이어트와 출시 전 점검

당국자들이 사용하는 핵심 비유 중 하나는 데이터 다이어트입니다. AI 시스템은 공급받는 자료만큼만 영향력을 발휘하므로, 규정에 따라 기업은 훈련 데이터셋을 주방의 통제된 식재료처럼 취급해야 합니다. 텍스트, 이미지, 비디오 등 모든 콘텐츠 형식에 대해 개발자는 수천 개의 훈련 항목을 무작위로 샘플링하고 사람이 검토해야 합니다. 지침에서 제안된 기준에 따르면, 해당 소스의 자료 중 최소 96%가 31가지 위험 기준에 따라 안전하다고 판단되는 경우에만 해당 소스를 사용할 수 있습니다.

서비스가 공개되기 전에는 이념 시험을 통과해야 합니다. 기업은 전복적이거나 분리주의적인 답변을 유도하도록 설계된 2,000개의 테스트 프롬프트를 실행하고, 모델이 해당 프롬프트의 최소 95%를 거부하도록 시스템을 조정해야 합니다. 이 시험을 준비하기 위해 AI 벤더가 답변을 정교하게 다듬고 강화하도록 돕는 컨설턴트 및 테스트 기관이라는 소규모 민간 시장이 생겨났는데, 내부자들은 이 과정을 제품 출시를 위한 SAT 준비에 비유합니다.

집행, 추적성 및 감시

법 집행은 활발하게 이루어지고 있습니다. 당국은 최근 캠페인 기간 동안 불법 또는 유해하다고 판단한 수십만 개의 AI 생성 콘텐츠를 삭제했다고 보고했으며, 규정 미준수를 이유로 수천 개의 AI 제품을 중단시켰습니다. 이 규정은 플랫폼이 AI가 생성한 텍스트, 이미지 및 비디오에 표시를 하고, 사용자 상호 작용 로그를 보관하며, 결정적으로 사용자를 전화번호나 국가 신분증에 연결하여 익명의 바이럴 확산을 억제하도록 요구합니다.

이 구조는 콘텐츠의 출처와 콘텐츠 생성자의 신원을 쉽게 추적할 수 있도록 설계되었습니다. 사용자가 금지된 자료를 생성하려고 시도하면, 플랫폼은 대화를 기록하고 계정을 정지하며 사건을 보고해야 합니다. 지역 규제 당국은 출시 후 무작위 점검을 실시할 예정이며, 기업은 테스트를 통과하지 못한 서비스가 신속하게 폐쇄될 위험을 감수해야 합니다.

기술적 한계와 우회

서구에서 중국 모델을 테스트한 연구원들은 중요한 기술적 세부 사항을 보고합니다. 정치적 검열의 상당 부분이 훈련 후 신경망 위에 놓인 필터와 응답 계층에서 발생하는 것으로 보인다는 점입니다. 연구원들이 일부 중국 모델을 다운로드하여 로컬에서 실행할 때 검열이 완화되거나 사라지는 경우가 종종 발견되는데, 이는 모델의 '두뇌'에서 민감한 지식이 균일하게 제거되지 않았음을 시사합니다. 즉, 검열은 훈련 데이터에서의 완전한 삭제가 아니라 런타임 제어로 구현되는 경우가 많습니다.

이러한 구분은 두 가지 취약점을 만들기 때문에 중요합니다. 첫째, 시스템이 적대적 프롬프트로 모델을 '탈옥(jailbreak)'하려는 의욕적인 사용자들을 따라잡아야 하는 운영 제어에 의존하게 만듭니다. 둘째, 필터링 래퍼를 갖춘 강력한 코어 모델이라는 분할 구조는 기본 모델이 동일한 런타임 안전장치가 없는 환경에서 다른 용도로 전용될 수 있는지에 대한 의문을 제기합니다.

안전성 절충과 글로벌 경쟁

중국의 접근 방식은 정치적 통제와 기술 경쟁력 사이의 의도적인 절충입니다. 규제 당국은 지나치게 엄격한 제한이 혁신을 억제하고, 서로 다른 규제 인센티브를 마주하는 미국 기업들이 주도하는 글로벌 AI 경쟁에서 중국을 뒤처지게 할 수 있다고 노골적으로 우려합니다. 동시에 중국 당국은 규제되지 않은 AI의 사회적 위험에 대해 목소리를 높여왔습니다. 고위 지도자들은 이 기술이 "전례 없는 위험"을 초래한다고 경고했으며, "AI 플러스(AI Plus)"로 명명된 국가 AI 도입 프로그램은 엄격한 보호 장치를 유지하면서 2027년까지 대다수의 핵심 부문에 AI를 내재화하는 것을 목표로 합니다.

벤치마크에서 세계 수준이 되어야 한다는 압박과 이념적으로 안전해야 한다는 두 가지 압박은 정치적으로 민감한 주제에 대해 정화된 답변을 제공하면서도 많은 기술 범주에서 높은 점수를 받는 모델을 만들어냈습니다. 독립적인 분석가들은 이것이 폭력적이거나 음란한 콘텐츠의 감소와 같은 일부 지표에서 중국 챗봇을 객관적으로 더 안전하게 만들 수 있다고 언급합니다. 하지만 이러한 시스템은 영어로나 기술적인 주제에서는 우회하기 더 쉬울 수 있으며, 이는 의욕적인 사용자가 여전히 위험한 운영 지침을 추출하거나 모델의 약점을 이용할 수 있음을 의미합니다.

기업들의 적응 방식

주요 국내 기업들은 대체로 협력을 선택했습니다. 업계 단체와 선도 기업들은 11월 표준 초안 작성에 참여했으며, 몇몇 유명 기업들은 이제 제품 개발을 규정의 샘플링, 테스트 및 추적성 요구 사항에 공개적으로 맞추고 있습니다. 국가는 또한 강제적인 조치와 당근을 병행했습니다. 국가 AI 로드맵과 "AI 플러스" 이니셔티브는 정부 우선순위, 국방, 보건 및 제조 분야에서 유용한 모델을 개발하도록 인센티브를 제공합니다.

이러한 파트너십 모델은 규제된 국내 시장 내에서 배포를 가속화할 수 있지만, 광범위한 콘텐츠 제어와 외국 데이터셋에 대한 접근이 제한된 환경에서 가장 잘 작동하는 모델을 생산할 위험이 있습니다. 모델의 성능이 향상됨에 따라, 제한된 국내 배포 모델과 제약 없는 글로벌 시스템 간의 성능 격차를 유지하는 것은 더욱 어렵고 자원 집약적인 일이 될 것입니다.

더 광범위한 함의

중국의 규정은 명확한 관점을 보여줍니다. AI는 정치적 안정을 지원하도록 형성되어야 하는 경제적 자산이자 국가 안보 자산이라는 점입니다. 과도한 데이터셋 심사, 의무적인 이념 테스트, 추적성, 등록 및 활발한 삭제라는 정책 조합은 빠르게 변화하는 언어 모델을 국가 우선순위에 맞게 유지하려는 문제에 대한 하나의 해답입니다. 이는 또한 대규모의 역동적인 기술 부문을 해외 라이벌에게 우위를 잃지 않으면서 조종할 수 있는지에 대한 실시간 실험이기도 합니다.

그 결과는 중국 국경 너머에서도 중요할 것입니다. 만약 런타임 필터링과 액세스 제어가 견고함이 입증된다면, 그 결과는 중국 인터넷에는 안전하지만 국제적 사용에는 덜 개방적인 일련의 국내 맞춤형 모델이 될 수 있습니다. 만약 그러한 통제가 취약하거나 유능한 연구원들이 제약이 적은 환경으로 떠난다면, 중국은 규제 당국이 두려워하는 바로 그 경쟁력 격차에 직면할 수 있습니다.

현재로서는 베이징이 난제를 해결하기로 결심한 것으로 보입니다. 즉, AI를 경제와 군사에 도입하는 동시에 기술이 정치적 이견을 자극하는 능력을 제한하는 집행 체계를 구축하는 것입니다. 이러한 균형이 모델이 더 똑똑해지고 글로벌 경쟁이 치열해짐에 따라 유지될 수 있을지는 2026년으로 향하는 결정적인 기술 질문 중 하나입니다.

출처

  • Cyberspace Administration of China (AI 콘텐츠에 관한 규제 표준 및 지침)
  • Carnegie Endowment for International Peace (중국 AI 정책 분석)
  • 중국 국가 연구소 및 국내 AI 연구 그룹 (모델 및 데이터셋 관행)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 베이징이 AI를 정치적으로 안전하게 유지하기 위해 사용하는 핵심 방법은 무엇인가요?
A 베이징은 AI를 정치적으로 안전하게 유지하기 위해 데이터 필터링, 이념 테스트, 로깅 및 신속한 삭제 조치를 혼합하여 추진하고 있습니다. 사이버 공간 당국부터 주요 기술 기업에 이르는 규제 기관들은 훈련 데이터 세트의 인간 샘플링, 모델에 대한 월간 이념 퀴즈, AI 생성 콘텐츠의 명시적 표시, 사용자 상호 작용의 의무적 로깅을 요구하는 표준을 초안했습니다. 이 모든 조치는 체제 전복 행위에 대한 엄격한 레드라인을 설정하고 사회 안정을 보호하는 틀 안에서 이루어집니다.
Q 서비스가 출시 전에 충족해야 하는 요구 사항은 무엇인가요?
A 서비스를 공개하기 전에, 체제 전복적이거나 분리주의적인 응답을 유도하도록 설계된 2,000개의 테스트 프롬프트를 실행하고 모델이 해당 프롬프트의 최소 95% 이상을 거부하도록 조정하는 것을 포함한 이념 시험을 통과해야 합니다. 또한, 훈련에 사용된 출처는 31가지 위험 기준에 따라 96%의 안전 문턱값을 충족해야 하며, 콘텐츠에 대한 무작위 인간 검토가 병행되어야 합니다.
Q 집행 및 추적 가능성은 어떻게 구현되나요?
A 플랫폼은 AI가 생성한 텍스트, 이미지 및 비디오에 표시를 해야 하며, 사용자 상호 작용 기록을 보관하고, 익명 확산을 억제하기 위해 사용자를 전화번호나 국가 신분증에 연결해야 합니다. 현지 규제 기관은 출시 후 무작위 점검을 실시하며, 금지된 자료가 생성될 경우 플랫폼은 대화를 기록하고 계정을 정지하며 사건을 보고해야 합니다. 당국은 규정 미준수를 이유로 수십만 개의 게시물과 수천 개의 AI 제품을 삭제했습니다.
Q 연구원들이 중국 AI 모델의 검열에 대해 지적하는 취약점은 무엇인가요?
A 검열은 종종 훈련 데이터에서 완전히 제거되기보다는 훈련 후 필터 및 응답 계층에서 작동합니다. 모델이 로컬에서 실행될 때 검열이 약화되거나 사라질 수 있는데, 이는 강력한 코어와 필터링 래퍼가 분리된 구조임을 시사합니다. 이는 탈옥(jailbreak) 시도 및 안전 장치 없는 잠재적 재용도의 위험을 초래합니다.
Q 통제와 혁신 사이의 광범위한 정책적 절충안은 무엇인가요?
A 중국은 이 정책을 정치적 통제와 기술 경쟁력 사이의 균형으로 규정하고 있습니다. 지나치게 엄격한 규제는 혁신을 가로막고 미국 기업들이 주도하는 글로벌 AI 경쟁에서 국가를 뒤처지게 만들 수 있기 때문입니다. 동시에 당국은 안전 장치를 유지하면서 2027년까지 우선 순위 분야에 AI를 내재화하기 위한 'AI 플러스' 프로그램과 국가 로드맵을 추진하고 있습니다.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!