北京、AIの政治的制御に向け迅速に動く
規制の枠組み
中国当局は、サイバースペース規制当局、サイバー警察、国家研究所、そして主要なテック企業を動員し、広範な規制連合を形成しました。これらの組織が協力して基準の策定にあたっています。文書では、学習データセットの人間によるサンプリング、モデルに対する毎月の思想テスト、AI生成コンテンツの明示的なラベル付け、ユーザーとのやり取りのログ保存の義務化など、技術面とガバナンス面の両方の要件が規定されています。当局はこの取り組みを社会の安定を守るためのものと位置づけており、国家の緊急事態計画の枠組みに、地震や疫病と並んでAIを追加するまでに至っています。
また、当局は狭いながらも絶対的なレッドラインを強調しています。それは「国家政権の転覆を扇動し、社会主義制度を打倒する」と判断されるあらゆる内容を禁止することです。規制では、暴力の助長から個人の肖像の不当な利用まで、31の明確なリスクがリストアップされており、企業は学習素材を収集する際やサービスを展開する際に、これらをスクリーニングしなければなりません。
データ・ダイエットとローンチ前の検査
当局が用いる中心的なメタファーの一つに「データ・ダイエット」があります。AIシステムの影響力は与えられる素材に依存するため、規制は企業に対し、学習セットをキッチンの管理された食材のように扱うことを強いています。テキスト、画像、ビデオなど、あらゆるコンテンツ形式において、開発者は数千の学習アイテムをランダムにサンプリングし、人間がレビューする必要があります。ガイドラインで提案されている閾値では、あるソースの素材の少なくとも96%が31のリスク基準において安全であると判断された場合にのみ、そのソースを使用できるとしています。
サービスを公開する前には、思想試験に合格しなければなりません。企業は、体制転覆や分裂主義的な回答を誘発するように設計された2,000件のテスト用プロンプトを実行し、モデルがそれらのプロンプトの少なくとも95%を拒絶するようにシステムを調整することが求められます。この試験への準備は、AIベンダーが回答を作成し強化するのを支援するコンサルタントや試験機関という小さな民間市場を生み出しており、関係者はこのプロセスを製品ローンチのための「SAT(大学進学適性試験)対策」に例えています。
執行、追跡可能性、および監視
規制の執行は積極的に行われています。当局は最近のキャンペーン期間中に、違法または有害とされる数十万件のAI生成コンテンツを削除し、不適合を理由に数千のAI製品を停止したと報告しました。規則では、プラットフォームに対し、AIが作成したテキスト、画像、ビデオにラベルを付け、ユーザーの対話ログを保持し、さらに重要なこととして、匿名でのバイラルな拡散を抑制するためにユーザーを電話番号や国民識別番号に紐付けることを求めています。
この仕組みは、コンテンツの出所と作成者の身元を容易に追跡できるように設計されています。ユーザーが禁止された素材を生成しようとした場合、プラットフォームは会話をログに記録し、アカウントを停止し、事案を報告することが期待されています。地方の規制当局はローンチ後に抜き打ち検査を実施し、テストに不合格となったサービスは即座に停止されるリスクがあります。
技術的限界と回避
欧米で中国のモデルをテストした研究者は、重要な技術的詳細を報告しています。政治的検閲の多くは学習後、ニューラルネットワークの上に位置するフィルターやレスポンス・レイヤーで行われているようです。研究者が一部の中国製モデルをダウンロードしてローカルで実行すると、検閲が緩和されたり消失したりすることがあり、これはモデルの「脳」から機密知識が一様に拭い去られているわけではないことを示唆しています。検閲は、学習データからの完全な削除ではなく、実行時の制御(ランタイム・コントロール)として実装されることが多いのです。
この区別は、2つの脆弱性を生むため重要です。第一に、敵対的プロンプトを用いてモデルを「ジェイルブレイク(脱獄)」させようとする意欲的なユーザーに対し、常に運用コントロールを更新し続けなければならない点です。第二に、強力なコアモデルとフィルタリングのラッパー(包み紙)という分割されたアーキテクチャは、同じ実行時保護策がない環境で、基盤となるモデルが別の目的に転用される可能性という問題を提起します。
安全性のトレードオフと世界的な競争
中国のアプローチは、政治的コントロールと技術的競争力の間での意図的なトレードオフです。規制当局は、制限が厳しすぎるとイノベーションが阻害され、異なる規制動機を持つアメリカ企業が支配する世界のAI競争において中国が取り残されることを明確に懸念しています。同時に、中国当局は規制のないAIによる社会的リスクについても声を大にしており、指導部はテクノロジーが「前例のないリスク」をもたらすと警告しました。国家のAI導入プログラム「AIプラス」は、厳格なガードレールを維持しつつ、2027年までに主要セクターの大部分にAIを組み込むことを目指しています。
ベンチマークで世界クラスであることと、思想的に安全であることを両立させるという二重の圧力により、多くの技術カテゴリーで高いスコアを獲得しながら、政治的にデリケートなトピックについては浄化された回答を返すモデルが生み出されています。独立したアナリストは、これにより中国のチャットボットは暴力的な内容やポルノ・コンテンツの削減といった一部の指標において客観的に安全になると指摘しています。しかし、同じシステムでも英語や技術的な主題においては回避が容易な場合があり、意欲的なユーザーであれば依然として危険な運用手順を引き出したり、モデルの弱点を突いたりできる可能性があることを意味します。
企業の適応状況
主要な国内企業は、概ね協力を選択しています。業界団体や主要企業は11月の基準策定に参加し、複数の有名プレイヤーは現在、製品開発を規制のサンプリング、テスト、追跡可能性の要件に公に適合させています。国家はまた、強制的措置と「飴」を組み合わせています。国家AIロードマップと「AIプラス」構想は、政府の優先事項、国防、医療、製造業において有用なモデルを開発するインセンティブを生み出しています。
このパートナーシップ・モデルは、規制された国内市場内での導入を加速させる可能性がありますが、広範なコンテンツ管理と外国のデータセットへのアクセス制限が行われている環境で最適に機能するモデルを生み出すリスクもあります。モデルの能力が向上するにつれ、制限のある国内展開と制約のないグローバル・システムとの間の性能差を維持することは、より困難でリソースを大量に消費するものになるでしょう。
広範な影響
中国の規制は明確な視点を提示しています。それは、AIは経済的資産であると同時に、政治的安定を支えるように形作られるべき国家安全保障上の資産であるという考えです。大量のデータセット・スクリーニング、義務的な思想テスト、追跡可能性、登録、そして積極的な削除という政策の組み合わせは、急速に進化する言語モデルを国家の優先事項に適合させ続けるという問題に対する一つの答えです。これはまた、大規模でダイナミックなテクノロジー・セクターが、海外のライバルに対して優位性を失うことなく誘導できるかどうかという、現在進行形の実験でもあります。
その結果は、中国の国境を越えて影響を及ぼすでしょう。もし実行時のフィルタリングとアクセス制御が強固であることが証明されれば、その結果として、中国のインターネットには安全だが国際的な利用にはあまり向かない、国内向けに調整されたモデル群が登場するかもしれません。もしそれらの制御が脆弱であったり、優秀な研究者が制約の少ない環境を求めて去ったりすれば、中国は規制当局が恐れているまさにその競争力の格差に直面する可能性があります。
現在のところ、北京は「針の穴に糸を通す」ような困難な舵取りを決意しているようです。AIを経済や軍事に浸透させる一方で、テクノロジーが政治的異議を促す能力を制限する執行体制を構築しています。モデルが賢くなり、グローバルな競争が激化する中で、このバランスを維持できるかどうかは、2026年に向けた決定的なテクノロジーの問題の一つとなるでしょう。
情報源
- 中国サイバースペース管理局(AIコンテンツに関する規制基準およびガイダンス)
- カーネギー国際平和財団(中国のAI政策の分析)
- 中国国家重点実験室および国内AI研究グループ(モデルおよびデータセットの実践)
Comments
No comments yet. Be the first!