Pentagon setzt Anthropic Drei-Tage-Frist

KI
Pentagon Gives Anthropic Three Days
Das Pentagon hat Anthropic ein dreitägiges Ultimatum gestellt, um die Sicherheitsbeschränkungen seines Claude-Modells aufzuheben. Andernfalls drohen die Aufnahme in eine schwarze Liste oder eine Verpflichtung nach dem Defense Production Act, was eine Eskalation im Streit um den militärischen Zugang zu Frontier-KI signalisiert.

Pentagon gibt Anthropic nur noch wenige Tage: Ein knappes Ultimatum

Die Phrase „Pentagon gibt Anthropic nur noch wenige Tage“ ist mittlerweile mehr als nur eine Internet-Schlagzeile: Diese Woche setzte das Pentagon Anthropic eine Frist von drei Tagen, um die Sicherheitsvorkehrungen (Guardrails) seines Claude-Modells aufzuheben. Andernfalls droht das Unternehmen als Lieferkettenrisiko eingestuft und von US-Verteidigungsaufträgen ausgeschlossen zu werden. Die Forderung wurde laut Berichten von Teilnehmern und Unternehmenserklärungen in einem angespannten Treffen am Dienstagmorgen im Pentagon übermittelt, an dem Verteidigungsminister Pete Hegseth und hochrangige Anwälte des Ministeriums teilnahmen. Die Wahl, vor die Anthropic gestellt wurde, war eindeutig: Entweder den Bedingungen des Pentagons zustimmen oder auf die schwarze Liste gesetzt und potenziell unter dem Defense Production Act (DPA) dazu gezwungen werden.

Pentagon gibt Anthropic wenige Tage — was in dem Treffen geschah

Beamte, die an dem Treffen teilnahmen, sagten Reportern, der Ton sei konfrontativ gewesen. Ein Verteidigungsbeamter beschrieb die Sitzung als „nicht gerade herzlich“, und ein anderer räumte das Paradoxon ein, dass das Pentagon gleichzeitig von Frontier-Modellen abhängig sei, aber nicht bereit sei, zu akzeptieren, dass private Unternehmen Bedingungen für die militärische Nutzung festlegen. Anthropic-CEO Dario Amodei nahm an dem Treffen teil. Nach dem Gespräch veröffentlichte das Unternehmen eine Erklärung, in der es hieß, man sei weiterhin bestrebt, legitime Missionen der nationalen Sicherheit zu unterstützen und gleichzeitig ein sicheres, testbares Modellverhalten zu bewahren.

Der unmittelbare Auslöser für die Konfrontation war, wie in Presseberichten beschrieben, eine Reihe von Enthüllungen, wonach das Claude-Modell — ohne vorherige Ankündigung gegenüber Anthropic — in einer Militäroperation im Januar eingesetzt worden war. Diese Episode und die Berichterstattung darüber verstärkten den Druck innerhalb des Pentagons, auf einen uneingeschränkten Zugang zu bestehen. Das Verteidigungsministerium hat sich explizit zu einem kurzfristigen Zeitplan für die KI-Beschleunigung geäußert: Eine im Januar veröffentlichte „AI-first“-Kriegsführungsstrategie sah demonstrative Projekte für diesen Sommer vor, und hochrangige Beamte sagen, sie bräuchten jetzt die leistungsfähigsten Modelle, um diese Zeitpläne einzuhalten.

Zusammen mit dem Ultimatum kündigte das Pentagon eine separate Vereinbarung an, um das Grok-Modell von xAI in geheimen Militärnetzwerken unter der Rubrik „alle rechtmäßigen Zwecke“ einzusetzen. Berichtet wurde über Unterschiede in den vertraglichen Bedingungen zwischen den beiden Unternehmen — ein Unternehmen akzeptierte eine weit gefasste Nutzungssprache, während das andere sich widersetzte —, was die Botschaft der Regierung unterstrich, dass der Staat keine Anbieterbeschränkungen tolerieren wird, die er als unvereinbar mit operativen Erfordernissen erachtet.

Pentagon gibt Anthropic wenige Tage — rechtliche Instrumente und die Drohung des Blacklistings

Das Pentagon formulierte seine Optionen in zwei rechtlichen Kategorien: das Blacklisting als Lieferkettenrisiko und die Berufung auf den Defense Production Act, um ein bestimmtes Verhalten zu erzwingen. Ein Blacklisting würde bedeuten, künftige Verträge mit dem Pentagon für ungültig zu erklären und Hauptauftragnehmer unter Druck zu setzen, ihre Verbindungen abzubrechen. In der Praxis würde dies Anthropic von einem großen Teil der Regierungseinnahmen und Partnerschaften ausschließen und anderen Kunden signalisieren, ihre Geschäftsbeziehungen zu überdenken. Die Warnung ist strafend: Sie soll ein Unternehmen dazu zwingen, sich zwischen einem gefilterten Geschäftsmodell und dem Verlust lukrativer Regierungsaufträge zu entscheiden.

Der Defense Production Act nimmt eine andere rechtliche Stellung ein. Der DPA verleiht dem Präsidenten weitreichende Befugnisse, um Unternehmen zu verpflichten, Regierungsverträge vorrangig zu behandeln und anzunehmen sowie Güter und Dienstleistungen zu produzieren, die für die nationale Verteidigung benötigt werden. Im Bereich der KI könnte dies genutzt werden, um einem Anbieter zu befehlen, Modelle anzupassen oder neu zu konfigurieren, bestimmte Sicherheitsmerkmale zu entfernen oder einen technisch manipulierten Zugang für geheime Aufgaben bereitzustellen. Die Anwendung des DPA gegen einen Softwareanbieter auf diese Weise wäre neuartig und rechtlich umstritten, aber Pentagon-Beamte führten ihn Berichten zufolge als glaubwürdiges Instrument an, um Compliance zu erzwingen.

Für Außenstehende und Rechtsgelehrte werfen diese Optionen unmittelbare Fragen nach Präzedenzfällen und Aufsicht auf. Das Blacklisting verändert die Angebotslandschaft durch einen Verwaltungsakt; der DPA würde eine erzwungene technische Änderung an einem Produkt bewirken. Beide Maßnahmen haben Auswirkungen auf die Unternehmensautonomie, die bürgerlichen Freiheiten und den internationalen Markt für Frontier-KI.

Anthropics Sicherheitsvorkehrungen und die Positionierung des Unternehmens

Anthropic hat sein Sicherheitssystem in öffentlichen Dokumenten und Interviews als eine Mischung aus technischen und politischen Leitplanken beschrieben. Zu diesen Schutzmaßnahmen gehören Inhaltsfilterung, Ablehnungsmodi für bestimmte Arten von Anfragen und explizite Richtlinien, die Anwendungen wie „vollautonome Waffen“ und „massenhafte Inlandsüberwachung von Amerikanern“ untersagen. Das Unternehmen hat sich auch dagegen gewehrt, weit gefasste Vertragsklauseln zu unterzeichnen, mit denen es sich verpflichtet, „alle rechtmäßigen Zwecke“ zu unterstützen, mit dem Argument, dass eine solche Formulierung sinnvolle Grenzen für den Einsatz von Modellen aufheben würde.

Diese Position steht jedoch neben einer Geschichte von kommerziellem und staatlichem Engagement. Anthropic hat Bereitstellungen in geheimen Netzwerken mit Infrastrukturpartnern vorangetrieben, ein auf die Regierung ausgerichtetes Angebot namens Claude Gov eingeführt und bedeutende Verträge mit Kunden aus dem Verteidigungssektor gewonnen. Das Unternehmen zählt zudem große Cloud- und Chip-Investoren zu seinen Geldgebern und unterhält Geschäftsbeziehungen, die es mit dem militärisch-nachrichtendienstlichen Ökosystem verflechten. Diese Verflechtungen erschweren die Behauptung, das Unternehmen stünde völlig abseits von Verteidigungsprioritäten.

Auf die Frage, warum das Pentagon Anthropic drei Tage Zeit gab, um die KI-Sicherheitsvorkehrungen fallen zu lassen, verweisen Beobachter auf eine Mischung aus strategischem Druck und unmittelbarem operativem Bedarf. Das Ministerium wünscht sich einen erprobten, erklärbaren Weg, um große Modelle schnell in die Missionsplanung, Logistik und Waffensysteme zu integrieren. Jede Anbieterbeschränkung, die einen schnellen, uneingeschränkten Einsatz verhindern könnte — insbesondere unter dem rechtlichen Standard „alle rechtmäßigen Zwecke“ —, wird vom Pentagon als unannehmbares Risiko für die Einsatzbereitschaft eingestuft.

Was ein Blacklisting und ein Rollback der Sicherheitsvorkehrungen in der Praxis bedeuten würden

Falls Anthropic auf die schwarze Liste gesetzt würde, verlöre das Unternehmen den direkten Zugang zu vielen Verteidigungsprojekten; Auftragnehmer könnten angewiesen werden, die Verbindung zu kappen, und staatliche Beschaffungskanäle würden sich schließen. Wenn Anthropic stattdessen die Sicherheitsvorkehrungen unter Druck oder Zwang entfernen würde, wären die unmittelbaren technischen Folgen Modelle, die ein breiteres Spektrum an Prompts und operativen Anweisungen akzeptieren, einschließlich solcher, die die Zielerfassung, Überwachung oder andere sensible Missionen betreffen.

Die nachgelagerten Auswirkungen wären sowohl technischer als auch gesellschaftlicher Natur. Das Entfernen von Guardrails erhöht das Risiko, dass Modelle für die Massenüberwachung zweckentfremdet werden, wodurch automatisierte Überwachungssysteme schneller skaliert werden können. Es könnte die Integration in Waffenunterstützungssysteme beschleunigen, bei denen die menschliche Aufsicht begrenzt sein kann. Aus Sicherheitsperspektive kann eine Lockerung der Beschränkungen die Fähigkeit beeinträchtigen, Modelle auf Verzerrungen (Bias), Halluzinationen und die Anfälligkeit für gegnerische Angriffe zu testen und zu prüfen — Probleme, die den Einsatz von Modellen in lebensritischen Systemen ohnehin riskant machen.

Für die bürgerlichen Freiheiten und internationalen Normen steht viel auf dem Spiel: Modelle, die ihrer Beschränkungen beraubt wurden, könnten für groß angelegte inländische Überwachungsprogramme, gezielte Desinformation in großem Maßstab oder Auslandsoperationen mit niedrigeren Beweisschwellen eingesetzt werden. Dies sind genau die Kompromisse, die das Unternehmen nach eigenen Angaben zu vermeiden sucht, was erklärt, warum der Streit zu einem Brennpunkt geworden ist.

Weitere Auswirkungen: Märkte, Politik und die Zukunft der militärischen KI

Diese Konfrontation verdeutlicht eine umfassendere Spannung im KI-Ökosystem. Regierungen wollen einen vorhersehbaren, prüfbaren Zugang zu den leistungsfähigsten Modellen, um militärische Anwendungen zu beschleunigen. Viele Unternehmen hingegen fürchten Reputationsschäden und ethischen Widerstand durch eine uneingeschränkte militärische Nutzung. Die Kluft wird durch die Politik verschärft: Firmen, die bereit sind, weit gefasste Vertragsklauseln zu akzeptieren, erhalten schnellen Zugang zu Regierungsnetzwerken, während diejenigen, die versuchen, bedingte Grenzen aufrechtzuerhalten, Ausschluss oder Nötigung riskieren.

Es unterstreicht auch eine beunruhigende operative Realität: Wenn eine technologische Fähigkeit als strategisch notwendig erachtet wird, greift der Staat unter Umständen zu außergewöhnlichem rechtlichem und wirtschaftlichem Druck, um sie sich zu sichern. Diese Dynamik wird private KI-Anbieter dazu zwingen, bei Verhandlungen mit Regierungen kommerzielle Erfordernisse, Erwartungen der Investoren, rechtliche Risiken und die öffentliche Aufmerksamkeit gegeneinander abzuwägen. Für politische Entscheidungsträger wirft die Episode Fragen zur Transparenz, Aufsicht und zu internationalen Normen für KI im militärischen Kontext auf.

Für Forscher, Ingenieure und die Öffentlichkeit wird das Ergebnis von Bedeutung sein, da es die Art und Weise prägt, wie die fortschrittlichsten Modelle verwaltet und getestet werden. Wenn die Branche die pauschale Entfernung von Sicherheitsvorkehrungen im Namen der nationalen Sicherheit akzeptiert, wird der Raum für unabhängige Sicherheitsforschung, öffentliche Audits und den Schutz bürgerlicher Freiheiten schrumpfen. Sollten Unternehmen hingegen erfolgreich bestimmte Grenzen verteidigen, könnte der Wettbewerb die Regierung dazu drängen, eigene interne Kapazitäten zu entwickeln oder Beschaffungsregeln zu schaffen, die den operativen Bedarf mit Sicherheitsanforderungen in Einklang bringen.

Der unmittelbare Zeitrahmen bleibt kurz: Die Drei-Tage-Forderung des Pentagons hat Anthropic unter enormen Druck gesetzt, sich für einen Weg zu entscheiden. Wie auch immer die Entscheidung ausfällt, diese Episode wird ein Testfall dafür sein, ob private KI-Unternehmen wirksame Grenzen für die militärische Nutzung von Frontier-Modellen setzen können oder ob der Staat im Namen der Verteidigungsbereitschaft einen umfassenderen Zugang erzwingen wird.

Quellen

  • Pressematerialien des U.S. Department of Defense
  • Pressematerialien und öffentliche Grundsatzdokumente von Anthropic
  • Pressematerialien von xAI (Grok)
  • Defense Production Act (Text und rechtliche Leitfäden)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Warum gab das Pentagon Anthropic drei Tage Zeit, um KI-Sicherheitsvorkehrungen aufzugeben?
A In den verfügbaren Quellen gibt es keine Beweise dafür, dass das Pentagon Anthropic drei Tage Zeit gegeben hat, um KI-Sicherheitsvorkehrungen aufzugeben; der angegebene Artikeltitel erscheint durch Suchergebnisse nicht belegt. Anthropic hat stattdessen seine Richtlinie für verantwortungsvolle Skalierung (Responsible Scaling Policy, RSP) mit verbesserter Transparenz und Risikokontrollen gestärkt, einschließlich KI-Sicherheitsstufen (AI Safety Levels, ASLs) für fortgeschrittene Modelle. Das Unternehmen hat seine RSP als Reaktion auf Lehren aus der Umsetzung aktualisiert, nicht aufgrund von externem Druck durch das Pentagon.
Q Was genau sind die von Anthropic verwendeten KI-Sicherheitsvorkehrungen?
A Die KI-Sicherheitsvorkehrungen von Anthropic umfassen die Richtlinie für verantwortungsvolle Skalierung (RSP) mit KI-Sicherheitsstufen (ASLs), die Klassifikatoren zum Blockieren schädlicher chemischer und biologischer Inhalte, Zugangskontrollen, Red-Teaming, Bug-Bounties und Echtzeit-Erkennungssysteme beinhalten. Diese umfassen konstitutionelle Klassifikatoren, Antwortsteuerung, Kontenerzwingung und Evaluierungen zur Verhinderung von Missbrauch wie der Entwicklung von Biowaffen oder Distillationsangriffen. Sicherheitsvorkehrungen sind über das Modelltraining, die Bereitstellung und die Überwachung hinweg integriert, um Sicherheit als Voraussetzung für die Einführung zu gewährleisten.
Q Was bedeutet es, wenn ein Unternehmen vom Pentagon auf die schwarze Liste gesetzt wird?
A Die Suchergebnisse geben nicht an, was es bedeutet, wenn ein Unternehmen vom Pentagon auf die schwarze Liste gesetzt wird. Es werden keine relevanten Informationen über Blacklisting-Verfahren des Pentagons oder Auswirkungen auf KI-Unternehmen wie Anthropic bereitgestellt.
Q Was könnte passieren, wenn Anthropic seine KI-Sicherheitsvorkehrungen aufgibt?
A Das Aufgeben von KI-Sicherheitsvorkehrungen könnte die katastrophalen Risiken durch fortgeschrittene KI erhöhen, wie etwa die Ermöglichung der Entwicklung von Biowaffen oder anderen Missbrauch durch Bedrohungsakteure, da die RSP von Anthropic darauf ausgelegt ist, diese durch ASL-Schutzmaßnahmen zu mindern. Laut der Begründung der Richtlinie von Anthropic könnte dies Wettbewerbern mit schwächeren Sicherheitsvorkehrungen ermöglichen, die Oberhand zu gewinnen, was potenziell zu einer insgesamt unsichereren Welt führen würde. Dennoch hält Anthropic an der Verpflichtung fest, die Sicherheitsbemühungen der Konkurrenz zu erreichen oder zu übertreffen.
Q Wer ist Anthropic und wie ist ihre Haltung zur KI-Sicherheit?
A Anthropic ist ein KI-Unternehmen, das sich auf die Entwicklung sicherer und zuverlässiger Systeme wie Claude konzentriert und mit einem starken Schwerpunkt auf KI-Sicherheit gegründet wurde. Ihre Haltung beinhaltet die Richtlinie für verantwortungsvolle Skalierung (RSP), die KI-Sicherheitsstufen nutzt, um eskalierende Sicherheitsvorkehrungen für fortgeschrittene Modelle durchzusetzen und Transparenz, Risikominderung sowie branchenführenden Schutz vor katastrophalen Schäden zu fördern. Sie führen umfangreiche Evaluierungen, Red-Teaming und Durchsetzungsmaßnahmen durch, um Hilfsbereitschaft mit Sicherheit in Einklang zu bringen.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!