China verschärft die Kontrolle über KI

K.I.
China Tightens the Reins on AI
Peking hat strenge Regeln und Durchsetzungsmaßnahmen eingeführt, um Large Language Models politisch konform zu halten, ohne dabei die Innovation abzuwürgen. Der Ansatz kombiniert Datenfilterung, ideologische Tests, Protokollierung und schnelle Inhaltslöschungen.

Peking handelt schnell, um KI politisch kontrollierbar zu machen

Regulierungsarchitektur

Die chinesischen Behörden haben eine breite Regulierungskoalition zusammengestellt: Cyberspace-Regulierer, die Cybersicherheitspolizei, staatliche Labore und große Technologieunternehmen waren an der Ausarbeitung der Standards beteiligt. Das Dokument legt eine Kombination aus technischen und Governance-Anforderungen fest: menschliche Stichprobenprüfungen von Trainingsdatensätzen, monatliche ideologische Tests für Modelle, eine explizite Kennzeichnung von KI-generierten Inhalten und die obligatorische Protokollierung von Nutzerinteraktionen. Beamte haben diese Bemühungen als Schutz der sozialen Stabilität dargestellt – und KI sogar neben Erdbeben und Epidemien in einen nationalen Notfallplanungsrahmen aufgenommen.

Die Behörden betonen zudem eine schmale, aber absolute rote Linie: Alles, was als „Aufstachelung zur Untergrabung der Staatsgewalt und zum Umsturz des sozialistischen Systems“ eingestuft wird, ist verboten. Die Vorschriften listen 31 verschiedene Risiken auf – von der Förderung von Gewalt bis zur unrechtmäßigen Verwendung des Ebenbilds einer Person –, auf die Unternehmen prüfen müssen, wenn sie Trainingsmaterial zusammenstellen und Dienste bereitstellen.

Daten-Diät und die Inspektion vor der Markteinführung

Eines der zentralen Metaphern, die Beamte verwenden, ist eine Daten-Diät. KI-Systeme sind nur so einflussreich wie das Material, mit dem sie gefüttert werden. Daher zwingen die Regeln die Unternehmen dazu, ihre Trainingssets wie kontrollierte Zutaten in einer Küche zu behandeln. Für jedes Inhaltsformat – Text, Bilder, Video – sollten Entwickler Tausende von Trainingselementen stichprobenartig auswählen und von Menschen überprüfen lassen. Ein in der Richtlinie vorgeschlagener Schwellenwert sieht vor, eine Quelle nur dann zu nutzen, wenn mindestens 96 % des Materials dieser Quelle gemäß den 31 Risikokriterien als sicher eingestuft werden.

Bevor ein Dienst an die Öffentlichkeit gehen kann, muss er eine ideologische Prüfung bestehen. Von den Unternehmen wird erwartet, dass sie 2.000 Test-Prompts durchführen, die darauf ausgelegt sind, subversive oder separatistische Antworten zu provozieren, und ihre Systeme so abstimmen, dass das Modell mindestens 95 % dieser Prompts ablehnt. Die Vorbereitung auf diese Prüfung hat einen kleinen privaten Markt von Beratern und Prüfstellen hervorgebracht, die KI-Anbietern helfen, Antworten zu formulieren und abzusichern – ein Prozess, den Insider mit der SAT-Vorbereitung für eine Produkteinführung vergleichen.

Durchsetzung, Rückverfolgbarkeit und Überwachung

Die Durchsetzung erfolgt aktiv. Behörden berichteten über die Entfernung Hunderttausender Stücke von Inhalten, die sie als illegale oder schädliche KI-generierte Inhalte bezeichneten, während einer aktuellen Kampagne und haben Tausende von KI-Produkten wegen Nichteinhaltung abgeschaltet. Die Regeln verpflichten Plattformen dazu, KI-erstellte Texte, Bilder und Videos zu kennzeichnen, Protokolle über Nutzerinteraktionen zu führen und – entscheidend – Nutzer mit Telefonnummern oder der nationalen Identität zu verknüpfen, damit eine anonyme, virale Verbreitung eingedämmt werden kann.

Diese Architektur ist darauf ausgelegt, die Herkunft von Inhalten und die Identität eines Inhaltserstellers leicht rückverfolgbar zu machen. Wenn ein Nutzer versucht, verbotenes Material zu generieren, wird von den Plattformen erwartet, dass sie das Gespräch protokollieren, das Konto sperren und den Vorfall melden. Lokale Regulierungsbehörden werden nach der Markteinführung Stichprobenkontrollen durchführen, und Unternehmen riskieren eine schnelle Abschaltung von Diensten, die die Tests nicht bestehen.

Technische Grenzen und Umgehung

Forscher, die chinesische Modelle im Westen getestet haben, berichten von einem wichtigen technischen Detail: Ein Großteil der politischen Zensur scheint erst nach dem Training stattzufinden, in den Filtern und Antwortschichten, die über einem neuronalen Netzwerk liegen. Wenn Forscher einige chinesische Modelle lokal herunterladen und ausführen, stellen sie fest, dass die Zensur nachlässt oder verschwindet. Dies deutet darauf hin, dass die „Gehirne“ der Modelle nicht einheitlich von sensiblem Wissen befreit wurden – Zensur wird häufig als Laufzeitkontrolle implementiert, nicht als vollständige Entfernung aus den Trainingsdaten.

Diese Unterscheidung ist wichtig, da sie zwei Schwachstellen schafft. Erstens macht sie das System von operativen Kontrollen abhängig, die mit hochmotivierten Nutzern Schritt halten müssen, die versuchen, Modelle mit adversariellen Prompts zu „jailbreaken“. Zweitens wirft die geteilte Architektur – ein leistungsfähiges Kernmodell mit einer Filterhülle – die Frage auf, ob das zugrunde liegende Modell in Umgebungen ohne dieselben Laufzeit-Schutzmaßnahmen zweckentfremdet werden könnte.

Sicherheit-Kompromisse und der globale Wettlauf

Chinas Ansatz ist eine bewusste Abwägung zwischen politischer Kontrolle und technologischer Wettbewerbsfähigkeit. Regulierungsbehörden sorgen sich explizit darum, dass zu strenge Beschränkungen Innovationen ersticken und China in einem globalen KI-Wettbewerb zurücklassen könnten, der von amerikanischen Firmen dominiert wird, die anderen regulatorischen Anreizen gegenüberstehen. Gleichzeitig haben sich die chinesischen Behörden lautstark zu den sozialen Risiken unregulierter KI geäußert: Führende Politiker warnten davor, dass die Technologie „beispiellose Risiken“ berge, und das staatliche KI-Adoptionsprogramm – unter dem Markennamen „AI Plus“ – zielt darauf ab, KI bis 2027 in den meisten Schlüsselsektoren zu verankern und dabei strikte Sicherheitsleitplanken beizubehalten.

Der doppelte Druck – bei Benchmarks Weltklasse zu sein und gleichzeitig ideologisch sicher zu bleiben – hat Modelle hervorgebracht, die in vielen technischen Kategorien gut abschneiden, während sie bei politisch sensiblen Themen bereinigte Antworten liefern. Unabhängige Analysten stellen fest, dass dies chinesische Chatbots bei bestimmten Metriken, wie etwa der Reduzierung gewalttätiger oder pornografischer Inhalte, objektiv sicherer machen kann. Dieselben Systeme lassen sich jedoch in englischer Sprache oder bei technischen Themen oft leichter umgehen, was bedeutet, dass ein motivierter Nutzer dennoch gefährliche operative Anweisungen extrahieren oder Modellschwächen ausnutzen könnte.

Wie Unternehmen sich anpassen

Große inländische Firmen haben sich weitgehend für eine Kooperation entschieden. Industriegruppen und führende Unternehmen waren an der Ausarbeitung der Standards vom November beteiligt, und mehrere namhafte Akteure richten ihre Produktentwicklung nun öffentlich an den Stichproben-, Test- und Rückverfolgbarkeitsanforderungen der Verordnung aus. Der Staat hat zudem Zwangsmaßnahmen mit Anreizen kombiniert: Die nationale KI-Roadmap und die „AI Plus“-Initiative schaffen Anreize für die Entwicklung von Modellen, die für Regierungsprioritäten, Verteidigung, Gesundheit und Fertigung nützlich sind.

Dieses Partnerschaftsmodell kann die Bereitstellung innerhalb eines regulierten nationalen Marktes beschleunigen, birgt jedoch das Risiko, Modelle hervorzubringen, die in einer Umgebung mit umfassenden Inhaltskontrollen und engem Zugang zu ausländischen Datensätzen am besten funktionieren. Da die Modelle immer leistungsfähiger werden, wird es schwieriger und ressourcenintensiver, diese Leistungslücke zwischen eingeschränkten inländischen Anwendungen und unbeschränkten globalen Systemen aufrechtzuerhalten.

Weiterreichende Auswirkungen

Chinas Regulierungen artikulieren eine klare Sichtweise: KI ist sowohl ein wirtschaftliches als auch ein nationales Sicherheitsgut, das geformt werden muss, um die politische Stabilität zu stützen. Der Politikmix – umfassendes Screening von Datensätzen, obligatorische ideologische Tests, Rückverfolgbarkeit, Registrierung und aktive Löschungen – ist eine Antwort auf das Problem, schnelllebige Sprachmodelle an staatlichen Prioritäten auszurichten. Es ist auch ein Live-Experiment, ob ein großer, dynamischer Technologiesektor gesteuert werden kann, ohne den Vorsprung gegenüber Rivalen im Ausland zu verlieren.

Das Ergebnis wird auch außerhalb der Grenzen Chinas von Bedeutung sein. Sollten sich die Laufzeitfilterung und die Zugriffskontrollen als robust erweisen, könnte das Ergebnis eine Reihe von im Inland abgestimmten Modellen sein, die für das chinesische Internet sicher, aber für die internationale Nutzung weniger offen sind. Wenn diese Kontrollen instabil sind oder wenn talentierte Forscher in weniger eingeschränkte Umgebungen abwandern, könnte das Land mit genau der Wettbewerbslücke konfrontiert werden, die seine Regulierungsbehörden fürchten.

Vorerst scheint Peking entschlossen zu sein, eine Gratwanderung zu vollziehen: KI in Wirtschaft und Militär voranzutreiben und gleichzeitig ein Durchsetzungssystem aufzubauen, das die Fähigkeit der Technologie einschränkt, politischen Dissens zu schüren. Ob dieses Gleichgewicht aufrechterhalten werden kann, während die Modelle intelligenter werden – und während sich der globale Wettbewerb intensiviert –, gehört zu den entscheidenden Technologiefragen auf dem Weg ins Jahr 2026.

Quellen

  • Cyberspace Administration of China (Regulierungsstandards und Leitfaden zu KI-Inhalten)
  • Carnegie Endowment for International Peace (Analyse der chinesischen KI-Politik)
  • Chinesische staatliche Labore und inländische KI-Forschungsgruppen (Modell- und Datensatzpraktiken)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Was ist die Kernmethode, mit der Peking KI politisch sicher hält?
A Peking setzt auf eine Mischung aus Datenfilterung, ideologischen Tests, Protokollierung und schnellen Löschungen, um die KI politisch sicher zu halten. Regulierungsbehörden, von den Cyberspace-Behörden bis hin zu großen Technologieunternehmen, haben Standards entworfen, die menschliche Stichproben von Trainingsdatensätzen, monatliche ideologische Tests für Modelle, eine explizite Kennzeichnung von KI-generierten Inhalten und eine obligatorische Protokollierung von Nutzerinteraktionen vorschreiben. All dies wird als Schutz der sozialen Stabilität mit einer harten roten Linie gegen Subversion gerahmt.
Q Welche Anforderungen müssen Dienste vor der Markteinführung erfüllen?
A Vor der Veröffentlichung müssen Dienste eine ideologische Prüfung bestehen. Dazu gehört die Durchführung von 2.000 Test-Prompts, die darauf ausgelegt sind, subversive oder separatistische Antworten zu provozieren; das Modell muss so eingestellt werden, dass es mindestens 95 % dieser Prompts ablehnt. Darüber hinaus müssen die für das Training verwendeten Quellen eine Sicherheitsschwelle von 96 % gemäß 31 Risikokriterien erfüllen, wobei die Inhalte stichprobenartig durch Menschen überprüft werden.
Q Wie werden Durchsetzung und Rückverfolgbarkeit umgesetzt?
A Plattformen müssen von KI erstellte Texte, Bilder und Videos kennzeichnen, Protokolle über Nutzerinteraktionen führen und Nutzer mit Telefonnummern oder der nationalen Identität verknüpfen, um die anonyme Verbreitung einzudämmen. Lokale Regulierungsbehörden führen nach dem Start Stichproben durch. Wenn verbotenes Material generiert wird, muss die Plattform den Dialog protokollieren, das Konto sperren und den Vorfall melden. Die Behörden haben bereits Hunderttausende von Inhalten und Tausende von KI-Produkten wegen Nichteinhaltung entfernt.
Q Welche Schwachstellen stellen Forscher bei der Zensur in chinesischen KI-Modellen fest?
A Zensur findet oft erst nach dem Training statt, in Filtern und Antwortebenen, anstatt vollständig aus den Trainingsdaten entfernt zu werden. Wenn Modelle lokal ausgeführt werden, kann die Zensur nachlassen oder ganz verschwinden, was auf eine geteilte Architektur mit einem leistungsstarken Kern und einer Filterhülle hindeutet. Dies birgt das Risiko von Jailbreak-Versuchen und einer potenziellen Zweckentfremdung ohne Sicherheitsvorkehrungen.
Q Was ist der umfassendere politische Zielkonflikt zwischen Kontrolle und Innovation?
A China betrachtet die Politik als ein Gleichgewicht zwischen politischer Kontrolle und technologischer Wettbewerbsfähigkeit: Zu strenge Beschränkungen könnten Innovationen ersticken und das Land in einem globalen, von US-Unternehmen angeführten KI-Wettlauf zurückfallen lassen. Gleichzeitig fördern die Behörden das Programm „AI Plus“ und einen nationalen Fahrplan, um KI bis 2027 in Schwerpunktsektoren zu integrieren und dabei gleichzeitig Schutzvorkehrungen aufrechtzuerhalten.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!