Pentagon gibt Anthropic nur noch wenige Tage: Ein knappes Ultimatum
Die Phrase „Pentagon gibt Anthropic nur noch wenige Tage“ ist mittlerweile mehr als nur eine Internet-Schlagzeile: Diese Woche setzte das Pentagon Anthropic eine Frist von drei Tagen, um die Sicherheitsvorkehrungen (Guardrails) seines Claude-Modells aufzuheben. Andernfalls droht das Unternehmen als Lieferkettenrisiko eingestuft und von US-Verteidigungsaufträgen ausgeschlossen zu werden. Die Forderung wurde laut Berichten von Teilnehmern und Unternehmenserklärungen in einem angespannten Treffen am Dienstagmorgen im Pentagon übermittelt, an dem Verteidigungsminister Pete Hegseth und hochrangige Anwälte des Ministeriums teilnahmen. Die Wahl, vor die Anthropic gestellt wurde, war eindeutig: Entweder den Bedingungen des Pentagons zustimmen oder auf die schwarze Liste gesetzt und potenziell unter dem Defense Production Act (DPA) dazu gezwungen werden.
Pentagon gibt Anthropic wenige Tage — was in dem Treffen geschah
Beamte, die an dem Treffen teilnahmen, sagten Reportern, der Ton sei konfrontativ gewesen. Ein Verteidigungsbeamter beschrieb die Sitzung als „nicht gerade herzlich“, und ein anderer räumte das Paradoxon ein, dass das Pentagon gleichzeitig von Frontier-Modellen abhängig sei, aber nicht bereit sei, zu akzeptieren, dass private Unternehmen Bedingungen für die militärische Nutzung festlegen. Anthropic-CEO Dario Amodei nahm an dem Treffen teil. Nach dem Gespräch veröffentlichte das Unternehmen eine Erklärung, in der es hieß, man sei weiterhin bestrebt, legitime Missionen der nationalen Sicherheit zu unterstützen und gleichzeitig ein sicheres, testbares Modellverhalten zu bewahren.
Der unmittelbare Auslöser für die Konfrontation war, wie in Presseberichten beschrieben, eine Reihe von Enthüllungen, wonach das Claude-Modell — ohne vorherige Ankündigung gegenüber Anthropic — in einer Militäroperation im Januar eingesetzt worden war. Diese Episode und die Berichterstattung darüber verstärkten den Druck innerhalb des Pentagons, auf einen uneingeschränkten Zugang zu bestehen. Das Verteidigungsministerium hat sich explizit zu einem kurzfristigen Zeitplan für die KI-Beschleunigung geäußert: Eine im Januar veröffentlichte „AI-first“-Kriegsführungsstrategie sah demonstrative Projekte für diesen Sommer vor, und hochrangige Beamte sagen, sie bräuchten jetzt die leistungsfähigsten Modelle, um diese Zeitpläne einzuhalten.
Zusammen mit dem Ultimatum kündigte das Pentagon eine separate Vereinbarung an, um das Grok-Modell von xAI in geheimen Militärnetzwerken unter der Rubrik „alle rechtmäßigen Zwecke“ einzusetzen. Berichtet wurde über Unterschiede in den vertraglichen Bedingungen zwischen den beiden Unternehmen — ein Unternehmen akzeptierte eine weit gefasste Nutzungssprache, während das andere sich widersetzte —, was die Botschaft der Regierung unterstrich, dass der Staat keine Anbieterbeschränkungen tolerieren wird, die er als unvereinbar mit operativen Erfordernissen erachtet.
Pentagon gibt Anthropic wenige Tage — rechtliche Instrumente und die Drohung des Blacklistings
Das Pentagon formulierte seine Optionen in zwei rechtlichen Kategorien: das Blacklisting als Lieferkettenrisiko und die Berufung auf den Defense Production Act, um ein bestimmtes Verhalten zu erzwingen. Ein Blacklisting würde bedeuten, künftige Verträge mit dem Pentagon für ungültig zu erklären und Hauptauftragnehmer unter Druck zu setzen, ihre Verbindungen abzubrechen. In der Praxis würde dies Anthropic von einem großen Teil der Regierungseinnahmen und Partnerschaften ausschließen und anderen Kunden signalisieren, ihre Geschäftsbeziehungen zu überdenken. Die Warnung ist strafend: Sie soll ein Unternehmen dazu zwingen, sich zwischen einem gefilterten Geschäftsmodell und dem Verlust lukrativer Regierungsaufträge zu entscheiden.
Der Defense Production Act nimmt eine andere rechtliche Stellung ein. Der DPA verleiht dem Präsidenten weitreichende Befugnisse, um Unternehmen zu verpflichten, Regierungsverträge vorrangig zu behandeln und anzunehmen sowie Güter und Dienstleistungen zu produzieren, die für die nationale Verteidigung benötigt werden. Im Bereich der KI könnte dies genutzt werden, um einem Anbieter zu befehlen, Modelle anzupassen oder neu zu konfigurieren, bestimmte Sicherheitsmerkmale zu entfernen oder einen technisch manipulierten Zugang für geheime Aufgaben bereitzustellen. Die Anwendung des DPA gegen einen Softwareanbieter auf diese Weise wäre neuartig und rechtlich umstritten, aber Pentagon-Beamte führten ihn Berichten zufolge als glaubwürdiges Instrument an, um Compliance zu erzwingen.
Für Außenstehende und Rechtsgelehrte werfen diese Optionen unmittelbare Fragen nach Präzedenzfällen und Aufsicht auf. Das Blacklisting verändert die Angebotslandschaft durch einen Verwaltungsakt; der DPA würde eine erzwungene technische Änderung an einem Produkt bewirken. Beide Maßnahmen haben Auswirkungen auf die Unternehmensautonomie, die bürgerlichen Freiheiten und den internationalen Markt für Frontier-KI.
Anthropics Sicherheitsvorkehrungen und die Positionierung des Unternehmens
Anthropic hat sein Sicherheitssystem in öffentlichen Dokumenten und Interviews als eine Mischung aus technischen und politischen Leitplanken beschrieben. Zu diesen Schutzmaßnahmen gehören Inhaltsfilterung, Ablehnungsmodi für bestimmte Arten von Anfragen und explizite Richtlinien, die Anwendungen wie „vollautonome Waffen“ und „massenhafte Inlandsüberwachung von Amerikanern“ untersagen. Das Unternehmen hat sich auch dagegen gewehrt, weit gefasste Vertragsklauseln zu unterzeichnen, mit denen es sich verpflichtet, „alle rechtmäßigen Zwecke“ zu unterstützen, mit dem Argument, dass eine solche Formulierung sinnvolle Grenzen für den Einsatz von Modellen aufheben würde.
Diese Position steht jedoch neben einer Geschichte von kommerziellem und staatlichem Engagement. Anthropic hat Bereitstellungen in geheimen Netzwerken mit Infrastrukturpartnern vorangetrieben, ein auf die Regierung ausgerichtetes Angebot namens Claude Gov eingeführt und bedeutende Verträge mit Kunden aus dem Verteidigungssektor gewonnen. Das Unternehmen zählt zudem große Cloud- und Chip-Investoren zu seinen Geldgebern und unterhält Geschäftsbeziehungen, die es mit dem militärisch-nachrichtendienstlichen Ökosystem verflechten. Diese Verflechtungen erschweren die Behauptung, das Unternehmen stünde völlig abseits von Verteidigungsprioritäten.
Auf die Frage, warum das Pentagon Anthropic drei Tage Zeit gab, um die KI-Sicherheitsvorkehrungen fallen zu lassen, verweisen Beobachter auf eine Mischung aus strategischem Druck und unmittelbarem operativem Bedarf. Das Ministerium wünscht sich einen erprobten, erklärbaren Weg, um große Modelle schnell in die Missionsplanung, Logistik und Waffensysteme zu integrieren. Jede Anbieterbeschränkung, die einen schnellen, uneingeschränkten Einsatz verhindern könnte — insbesondere unter dem rechtlichen Standard „alle rechtmäßigen Zwecke“ —, wird vom Pentagon als unannehmbares Risiko für die Einsatzbereitschaft eingestuft.
Was ein Blacklisting und ein Rollback der Sicherheitsvorkehrungen in der Praxis bedeuten würden
Falls Anthropic auf die schwarze Liste gesetzt würde, verlöre das Unternehmen den direkten Zugang zu vielen Verteidigungsprojekten; Auftragnehmer könnten angewiesen werden, die Verbindung zu kappen, und staatliche Beschaffungskanäle würden sich schließen. Wenn Anthropic stattdessen die Sicherheitsvorkehrungen unter Druck oder Zwang entfernen würde, wären die unmittelbaren technischen Folgen Modelle, die ein breiteres Spektrum an Prompts und operativen Anweisungen akzeptieren, einschließlich solcher, die die Zielerfassung, Überwachung oder andere sensible Missionen betreffen.
Die nachgelagerten Auswirkungen wären sowohl technischer als auch gesellschaftlicher Natur. Das Entfernen von Guardrails erhöht das Risiko, dass Modelle für die Massenüberwachung zweckentfremdet werden, wodurch automatisierte Überwachungssysteme schneller skaliert werden können. Es könnte die Integration in Waffenunterstützungssysteme beschleunigen, bei denen die menschliche Aufsicht begrenzt sein kann. Aus Sicherheitsperspektive kann eine Lockerung der Beschränkungen die Fähigkeit beeinträchtigen, Modelle auf Verzerrungen (Bias), Halluzinationen und die Anfälligkeit für gegnerische Angriffe zu testen und zu prüfen — Probleme, die den Einsatz von Modellen in lebensritischen Systemen ohnehin riskant machen.
Für die bürgerlichen Freiheiten und internationalen Normen steht viel auf dem Spiel: Modelle, die ihrer Beschränkungen beraubt wurden, könnten für groß angelegte inländische Überwachungsprogramme, gezielte Desinformation in großem Maßstab oder Auslandsoperationen mit niedrigeren Beweisschwellen eingesetzt werden. Dies sind genau die Kompromisse, die das Unternehmen nach eigenen Angaben zu vermeiden sucht, was erklärt, warum der Streit zu einem Brennpunkt geworden ist.
Weitere Auswirkungen: Märkte, Politik und die Zukunft der militärischen KI
Diese Konfrontation verdeutlicht eine umfassendere Spannung im KI-Ökosystem. Regierungen wollen einen vorhersehbaren, prüfbaren Zugang zu den leistungsfähigsten Modellen, um militärische Anwendungen zu beschleunigen. Viele Unternehmen hingegen fürchten Reputationsschäden und ethischen Widerstand durch eine uneingeschränkte militärische Nutzung. Die Kluft wird durch die Politik verschärft: Firmen, die bereit sind, weit gefasste Vertragsklauseln zu akzeptieren, erhalten schnellen Zugang zu Regierungsnetzwerken, während diejenigen, die versuchen, bedingte Grenzen aufrechtzuerhalten, Ausschluss oder Nötigung riskieren.
Es unterstreicht auch eine beunruhigende operative Realität: Wenn eine technologische Fähigkeit als strategisch notwendig erachtet wird, greift der Staat unter Umständen zu außergewöhnlichem rechtlichem und wirtschaftlichem Druck, um sie sich zu sichern. Diese Dynamik wird private KI-Anbieter dazu zwingen, bei Verhandlungen mit Regierungen kommerzielle Erfordernisse, Erwartungen der Investoren, rechtliche Risiken und die öffentliche Aufmerksamkeit gegeneinander abzuwägen. Für politische Entscheidungsträger wirft die Episode Fragen zur Transparenz, Aufsicht und zu internationalen Normen für KI im militärischen Kontext auf.
Für Forscher, Ingenieure und die Öffentlichkeit wird das Ergebnis von Bedeutung sein, da es die Art und Weise prägt, wie die fortschrittlichsten Modelle verwaltet und getestet werden. Wenn die Branche die pauschale Entfernung von Sicherheitsvorkehrungen im Namen der nationalen Sicherheit akzeptiert, wird der Raum für unabhängige Sicherheitsforschung, öffentliche Audits und den Schutz bürgerlicher Freiheiten schrumpfen. Sollten Unternehmen hingegen erfolgreich bestimmte Grenzen verteidigen, könnte der Wettbewerb die Regierung dazu drängen, eigene interne Kapazitäten zu entwickeln oder Beschaffungsregeln zu schaffen, die den operativen Bedarf mit Sicherheitsanforderungen in Einklang bringen.
Der unmittelbare Zeitrahmen bleibt kurz: Die Drei-Tage-Forderung des Pentagons hat Anthropic unter enormen Druck gesetzt, sich für einen Weg zu entscheiden. Wie auch immer die Entscheidung ausfällt, diese Episode wird ein Testfall dafür sein, ob private KI-Unternehmen wirksame Grenzen für die militärische Nutzung von Frontier-Modellen setzen können oder ob der Staat im Namen der Verteidigungsbereitschaft einen umfassenderen Zugang erzwingen wird.
Quellen
- Pressematerialien des U.S. Department of Defense
- Pressematerialien und öffentliche Grundsatzdokumente von Anthropic
- Pressematerialien von xAI (Grok)
- Defense Production Act (Text und rechtliche Leitfäden)
Kommentare
Noch keine Kommentare. Seien Sie der Erste!