Washington bricht eigenes KI-Verbot zur Sicherung des Stromnetzes

Technologie
Washington Breaks Its Own AI Ban to Secure the Grid
Trotz eines Pentagon-Verbots für die Software von Anthropic beschleunigt das Weiße Haus den Einsatz einer modifizierten Version des „Mythos“-Modells, um kritische Infrastrukturen vor Zero-Day-Bedrohungen zu schützen.

Die Rechnung kam im März: 130.000 US-Dollar für die Dienste von Brian Ballard. Im großen Maßstab der Lobbyarbeit in Washington ist das ein Rundungsfehler, doch der Klient war Anthropic und das Ziel war der engste Kreis der Trump-Administration. Für ein Unternehmen, das das Pentagon kürzlich als „Lieferkettenrisiko“ eingestuft hatte, war die Investition mehr als nur ein Posten in der Bilanz; es war ein Überlebenskampf. Innerhalb weniger Wochen begannen die geheimen Treffen. Am 18. April wurde Anthropic-CEO Dario Amodei ins Weiße Haus einbestellt – nicht um über ein Verbot zu diskutieren, sondern um einen Einsatz auszuhandeln. Das fragliche Produkt, ein hochmodernes Modell namens Claude Mythos, ist zu gefährlich geworden, um es der Öffentlichkeit zugänglich zu machen, und zu mächtig, als dass die Bundesregierung es ignorieren könnte.

Die Situation offenbart ein tiefer werdendes Zerwürfnis in der amerikanischen Technologiepolitik. Auf der einen Seite hält das Verteidigungsministerium an einem formellen Ausschluss der Software von Anthropic aus seinen Arbeitsabläufen fest und verweist auf Bedenken hinsichtlich der Nutzungsgrenzen und der Weigerung des Unternehmens, die Entwicklung vollautonomer Waffen freizugeben. Auf der anderen Seite umgeht das Weiße Haus derzeit seine eigene restriktive Rhetorik, um eine „modifizierte Version“ von Mythos in das Energieministerium, das Finanzministerium und das Ministerium für Innere Sicherheit zu integrieren. Es ist ein klassisches Washingtoner Paradoxon: Eine Technologie, die für das Militär als Risiko eingestuft wurde, ist zum wichtigsten Schutzschild des zivilen Staates geworden.

Das Glasswing-Paradoxon

Um zu verstehen, warum das Weiße Haus bereit ist, sein Wort zu brechen, muss man sich Project Glasswing ansehen. Als Anthropic diese Initiative Anfang April startete, warb das Unternehmen nicht für einen besseren Chatbot zum Schreiben von E-Mails. Es enthüllte ein System, das in der Lage ist, Tausende von Zero-Day-Schwachstellen im Code kritischer Infrastrukturen zu identifizieren. In internen Tests demonstrierte Mythos eine unheimliche Fähigkeit, komplexe Software-Repositories zu durchsuchen und die Art von architektonischen Mängeln zu finden, die Sicherheitsbehörden den Schlaf rauben. Zum ersten Mal hat die Geschwindigkeit der Schwachstellenerkennung die menschliche Kapazität überholt, diese zu beheben.

Das ist es, was Ingenieure eine Dual-Use-Krise nennen. Dieselbe Logik, die es einer KI ermöglicht, einen Fehler in der Steuersoftware eines Stromnetzes zu identifizieren, liefert auch den Fahrplan für einen katastrophalen Angriff. Anthropic hat Mythos hinter einer „Gated Research Preview“ gehalten und den Zugang auf eine Handvoll Partner wie Amazon AWS, Microsoft und Palo Alto Networks beschränkt. Doch das Weiße Haus erkannte: Wenn diese Fähigkeiten im privaten Sektor existieren, kann es sich der Staat nicht leisten, als Letzter über sie zu verfügen. Die Nachfrage nach Mythos innerhalb der Bundesbehörden kommt nicht von Büroleitern; sie kommt von den Verantwortlichen für die physische Integrität des Stromnetzes und des Finanzsystems.

Ein systemisches Risiko für das Finanzsystem

Die Besorgnis rund um Mythos erreichte Anfang April ihren Höhepunkt, als Finanzminister Scott Bessent und der Vorsitzende der Federal Reserve Jerome Powell die CEOs der größten Wall-Street-Banken nach Washington einbestellten. Dies war kein routinemäßiges Briefing. Die Diskussion konzentrierte sich auf das Potenzial von Mythos oder dem Äquivalent eines Konkurrenten, systemische finanzielle Störungen auszulösen. Die Securities Industry and Financial Markets Association (SIFMA) warnte in einem offenen Brief, dass der böswillige Einsatz solcher Modelle zu großflächigem Identitätsdiebstahl oder, was noch kritischer ist, zur Ausnutzung von Schwachstellen im Hochfrequenzhandel führen könnte, die Märkte in Millisekunden zum Absturz bringen könnten.

Aus technischer Sicht besteht das Risiko nicht darin, dass die KI „beschließt“, eine Bank anzugreifen. Das Risiko liegt in der Erosion des Zeitpuffers, der moderne Systeme derzeit schützt. Traditionell ist Cybersicherheit ein Katz-und-Maus-Spiel, bei dem der Verteidiger einen leichten Heimvorteil hat. Mythos verschiebt diese Dynamik durch die Automatisierung der „Suchphase“ eines Angriffs. Wenn ein Modell Millionen von Codezeilen scannen und in Sekunden eine Angriffskette identifizieren kann, verschwindet die Verteidigungslinie, die auf einem Zeitfenster für Entdeckung und Offenlegung basiert, faktisch. Deshalb behandeln Powell und Bessent das Modell nicht als Software-Tool, sondern als makroökonomische Variable.

Das „modifizierte“ Korsett

Die Lösung des Weißen Hauses für das Pentagon-Verbot ist die Schaffung einer „modifizierten Version“ von Mythos. In der Sprache von Brüssel oder Berlin würde dies als verzweifelter Versuch technologischer Souveränität durch administrative Bastelei angesehen werden. In Washington ist es ein Weg, Beschaffungs-Blacklists zu umgehen. Diese Modifikation ist zweifach. Technisch beinhaltet sie hartcodierte Einschränkungen der Fähigkeit des Modells, verwertbaren Exploit-Code auszugeben, wodurch es faktisch in einen „Read-Only“-Sicherheitsberater verwandelt wird. Institutionell schließt sie das Modell in einem geschlossenen föderalen Schaltkreis ein, der vom Office of Management and Budget (OMB) verwaltet wird.

Der Federal Chief Information Officer Gregory Barbaccia hat bereits mit der Festlegung der Grenzen begonnen. Ein internes Memorandum deutet darauf hin, dass Behörden wie das Justizministerium und das Außenministerium Zugang erhalten werden, jedoch nur unter einem Rahmenwerk, das eine lückenlose Protokollierung jeder Anfrage erfordert. Dies ist weit entfernt von den offenen KI-Assistenten, die der Öffentlichkeit vermarktet werden. Die Regierung baut im Grunde einen digitalen Käfig um das Modell, in der Hoffnung, seine diagnostische Brillanz zu nutzen und gleichzeitig sein offensives Potenzial zu neutralisieren. Ob ein solcher Käfig ein Modell mit emergenten Fähigkeiten tatsächlich halten kann, bleibt Gegenstand intensiver Debatten unter den wenigen Forschern, die die vollständigen Mythos-Gewichte gesehen haben.

Die europäische Perspektive: Souveränität vs. Sicherheit

Für Beobachter in der Europäischen Union ist die Mythos-Saga eine warnende Geschichte über die Realität des AI Act im Vergleich zu den Zwängen der realen Macht. Während die EU sich auf die Klassifizierung von „Hochrisiko“-Systemen und Transparenzanforderungen konzentriert, bewegen sich die Vereinigten Staaten auf ein Modell einer staatlich vereinnahmten KI-Entwicklung zu. Durch die „Modifizierung“ und Verstaatlichung des Einsatzes von Modellen des Privatsektors schafft Washington einen Präzedenzfall, bei dem die mächtigsten Technologien unter dem Deckmantel der nationalen Sicherheit die standardmäßige regulatorische Prüfung umgehen.

Dies stellt ein erhebliches Problem für die deutsche und französische Industriepolitik dar. Wenn die US-Regierung diese Fähigkeiten in ihre Finanz- und Energieministerien integriert, werden europäische Pendants einen strukturellen Nachteil erleiden, es sei denn, sie können gleichwertige, souveräne Modelle entwickeln. Das Problem ist, dass die europäische Halbleiter- und KI-Landschaft fragmentiert bleibt. Während Firmen wie Mistral in Frankreich oder Aleph Alpha in Deutschland auf Transparenz und Sicherheit setzen, konkurrieren sie mit amerikanischen Einheiten, die im Wesentlichen zu einer Erweiterung des staatlichen Sicherheitsapparats geworden sind. Die „modifizierte Version“ von Mythos ist ein Signal dafür, dass die Ära der KI als Allzweck-SaaS-Produkt für kritische Sektoren endet. Sie entwickelt sich zu einer kontrollierten Substanz.

Beschaffung als Waffe

Die Reibung zwischen dem Pentagon und dem Weißen Haus unterstreicht auch ein Versagen im Umgang des militärisch-industriellen Komplexes mit moderner Software. Das Weigern des Pentagons, Anthropic zu nutzen, entspringt dem Wunsch nach totaler Kontrolle – speziell dem Recht, Modelle für autonome Waffensysteme einzusetzen. Anthropics Weigerung, dem nachzukommen, wird oft als ethischer Standpunkt dargestellt, ist aber auch eine pragmatische Geschäftsentscheidung: Als „Death-Tech“-Firma abgestempelt zu werden, würde die kommerziellen Partner wie Amazon und Google abschrecken, die die massive Rechenleistung für das Training von Modellen wie Mythos bereitstellen.

Während das OMB die Bereitstellung des Zugangs zu Mythos in den „kommenden Wochen“ vorbereitet, wird sich der Fokus vom Drama des Verbots auf die Realität des Einsatzes verlagern. Die Regierung geht das Wagnis ein, eine Technologie zu domestizieren, die darauf ausgelegt war, disruptiv zu wirken. Die Geschichte legt nahe, dass die Bürokratie selten schneller ist als der Code, den sie zu regulieren versucht. Das Weiße Haus hat entschieden, dass das Risiko, Mythos zu nutzen, hoch ist, aber das Risiko, es nicht zu nutzen, höher. Es ist die Art von Fortschritt, die nicht auf eine Präsentationsfolie passt, und eine Realität, mit der sich Brüssel früher oder später auseinandersetzen muss – wahrscheinlich nachdem die erste Zero-Day-Lücke von einer KI entdeckt wurde, die das Pentagon technisch gesehen gar nicht besitzt.

Washington hat die Realität akzeptiert, dass diese Fähigkeiten unweigerlich die globale Infrastruktur durchdringen werden. Der Wettbewerb hat sich von Prävention zu Domestizierung verlagert. Die US-Regierung hat das Modell; jetzt muss sie nur noch herausfinden, welches Ministerium die Schlüssel behalten darf.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Warum hat das Pentagon die Software von Anthropic ursprünglich aus militärischen Arbeitsabläufen verbannt?
A Das Verteidigungsministerium setzte Anthropic aufgrund von Risiken in der Lieferkette und Bedenken hinsichtlich der Grenzen der Softwarenutzung auf die schwarze Liste. Ein wesentlicher Faktor für den Ausschluss war die Weigerung des Unternehmens, die Entwicklung vollautonomer Waffen zu genehmigen. Dieses formale Verbot führte zu einer Kluft zwischen militärischer Beschaffung und den Anforderungen ziviler Behörden, da das Pentagon ethische und sicherheitstechnische Grenzen über die fortschrittlichen Diagnosefähigkeiten des Modells stellte.
Q Was macht das Modell Claude Mythos für kritische Infrastrukturen einzigartig gefährlich?
A Claude Mythos ist eine Dual-Use-Technologie, die in der Lage ist, Tausende von Zero-Day-Schwachstellen in Softwarecode mit Geschwindigkeiten zu identifizieren, die die Kapazitäten menschlicher Patch-Prozesse übersteigen. Während es zur Sicherung von Stromnetzen und Finanzsystemen eingesetzt werden kann, bietet dieselbe Logik einen Fahrplan für katastrophale Angriffe. Durch die Automatisierung der Suchphase einer Exploit-Kette eliminiert das Modell effektiv den traditionellen Zeitpuffer, der es Cybersicherheitsexperten ermöglicht, auf Bedrohungen zu reagieren.
Q Wie modifiziert das Weiße Haus Mythos für den Einsatz in Bundesbehörden?
A Die US-Bundesregierung setzt eine eingeschränkte Version des Modells ein, die als schreibgeschützter Sicherheitsberater fungiert. Diese Modifikation umfasst fest codierte technische Barrieren, die verhindern, dass die KI ausführbaren Exploit-Code ausgibt. Darüber hinaus ist das System innerhalb eines geschlossenen Bundesnetzwerks isoliert, das vom Office of Management and Budget verwaltet wird, wobei jede Abfrage umfassend protokolliert werden muss, um eine strenge institutionelle Kontrolle über die aufkommenden Fähigkeiten des Systems zu wahren.
Q Welche Schwachstellen im Finanzsystem wurden von Bundesbeamten im Zusammenhang mit leistungsstarker KI hervorgehoben?
A Beamte des Finanzministeriums und der Federal Reserve warnten, dass Modelle wie Mythos systemische Instabilität auslösen könnten, indem sie Schwachstellen im Hochfrequenzhandel ausnutzen, um Märkte in Millisekunden zum Absturz zu bringen. Es gibt zudem erhebliche Bedenken hinsichtlich großflächigem Identitätsdiebstahl und der Automatisierung hochentwickelter Finanzbetrugsmaschen. Da die KI Millionen von Codezeilen in Sekunden auf Fehler scannen kann, wird sie als makroökonomische Variable behandelt, die die physische Integrität des globalen Finanzregisters gefährdet.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!