Pentagon droht mit Abbruch der Zusammenarbeit, da Gespräche mit Anthropic feststecken
In dieser Woche droht das Pentagon mit dem Abbruch der Zusammenarbeit, so Berichten zufolge, die am 16. Februar 2026 auftauchten, während das US-Verteidigungsministerium das Unternehmen drängt, die Einschränkungen für die Nutzung seiner großen Sprachmodelle durch das Militär zu lockern. Der Streit – über den CNBC neben früherer Berichterstattung von Reuters und Axios berichtete – dreht sich darum, ob kommerzielle KI-Firmen zulassen werden, dass ihre Systeme für das verwendet werden, was das Pentagon als „alle rechtmäßigen Zwecke“ bezeichnet, einschließlich Waffenentwicklung, Informationsbeschaffung und Einsätze auf dem Schlachtfeld. Anthropic gibt an, bei spezifischen Sicherheitsbeschränkungen hart geblieben zu sein, etwa bei strikten Verboten für vollständig autonome Waffen und Massenüberwachung im Inland, und der Konflikt ist bis zu Drohungen eskaliert, die Beziehung zu beenden.
Pentagon droht mit Abbruch: Die rechtlichen und vertraglichen Reibungspunkte
Der Kern des Konflikts liegt in der rechtlichen und vertraglichen Formulierung. Das Pentagon wünscht sich Zugriff auf Modelle in klassifizierten Netzwerken und eine breitere Formulierung, die den Einsatz in einer Vielzahl von militärischen Missionen ermöglichen würde; Unternehmen haben den Zugriff bisher in der Regel unter Vorbehalt von Sicherheitsvorkehrungen auf Modellebene und richtlinienbasierten Einschränkungen gewährt. Für das Pentagon ist die Formulierung „alle rechtmäßigen Zwecke“ ein einzelner vertraglicher Begriff, der Unklarheiten über die zulässige militärische Nutzung verringern würde. Für Unternehmen wie Anthropic, OpenAI, Google und xAI birgt die Akzeptanz dieser Formulierung das Risiko, interne Sicherheitsleitplanken auszuhöhlen – sowohl technische Kontrollen, die in die Modelle eingebaut sind, als auch unternehmenspolitische Verpflichtungen zur Begrenzung von Missbrauch.
Die Verhandlungen betreffen auch technische Details: wie Modelle in klassifizierten Netzwerken bereitgestellt werden, ob Inhaltsfilter und Nutzungsprotokollierung bestehen bleiben und wer verantwortlich ist, wenn ein KI-gesteuertes System schädliche Ausgaben produziert. Das Pentagon hat nach monatlichen Gesprächen Frustration signalisiert; der Drang, Beschränkungen aufzuheben oder zu lockern, spiegelt den operativen Wunsch wider, die leistungsfähigsten verfügbaren Systeme in umkämpften Umgebungen einzusetzen, während die Firmen sich um Haftung, Reputationsrisiken und die allgemeine Ethik militärischer Anwendungen sorgen.
Wie Anthropic und die anderen Anbieter reagiert haben
Anthropic hat öffentlich erklärt, dass sich die frühen Gespräche mit der US-Regierung auf Fragen der Nutzungsrichtlinien und explizite Grenzen konzentrierten – insbesondere Verbote für vollständig autonome Waffen und Einschränkungen für die Massenüberwachung im Inland – anstatt spezifische Operationen zu genehmigen. Ein Unternehmenssprecher sagte gegenüber Reportern, man habe mit dem Pentagon nicht über den Einsatz seines Modells Claude für namentlich genannte, taktische Operationen gesprochen. Diese Aussage steht neben Berichten, wonach Claude in mindestens einer hochkarätigen Operation über einen Partner eingesetzt wurde: Das Wall Street Journal berichtete, dass Claude über Palantir bei einer Operation zur Festnahme des ehemaligen Präsidenten von Venezuela eingesetzt wurde, was zeigt, wie Partnerintegrationen einfache Darstellungen unternehmerischer Zurückhaltung verkomplizieren.
Andere in den Berichten genannte große KI-Firmen – OpenAI, Google und xAI – sind ebenfalls Ziel des Drucks des Pentagons, den Zugang zu erweitern. Reuters und CNBC beschrieben umfassende Anfragen des Verteidigungsministeriums, Modelle in klassifizierten Netzwerken ohne viele der Standardbeschränkungen zur Verfügung zu stellen, die Unternehmen für zivile Nutzer anwenden. Die Firmen sind mit diesen Anfragen unterschiedlich umgegangen und haben Vertragschancen und Sicherheitsfreigaben gegen interne Richtlinien und externe Kontrolle abgewogen.
Warum das Pentagon Druck macht und was es erreichen will
Doch das Drängen auf pauschale, unbefristete Vertragsklauseln – „alle rechtmäßigen Zwecke“ – wirft Fragen auf, welche Sicherheitsvorkehrungen bestehen bleiben, wenn Modelle in kinetischen oder verdeckten Kontexten eingesetzt werden. Die rechtmäßige Nutzung ist ein weit gefasster Rechtsstandard, der dennoch die Implementierung von Kontrollen erfordert, um unbeabsichtigte Eskalationen, Schäden an Zivilisten oder Verstöße gegen nationales und internationales Recht zu vermeiden. Diese operativen Anforderungen sind die Quelle der aktuellen Spannungen.
Technische Sicherheitsvorkehrungen auf dem Spiel und die Bedenken des Pentagons
Unternehmen bauen Sicherheitsvorkehrungen entlang zweier Achsen in Modelle ein: Kontrollen auf Modellebene (Fine-Tuning, Sicherheitsschichten, Red-Teaming und Inhaltsfilter) und Kontrollen auf Richtlinienebene (Nutzungsbedingungen und vertragliche Nutzungsbeschränkungen). Das Bestreben des Pentagons, Beschränkungen zu reduzieren oder zu umgehen, würde die Funktionsweise dieser Kontrollen in der Praxis verändern. Beispielsweise kann die Platzierung eines Modells in einem klassifizierten Netzwerk aus Sicherheitsgründen die Telemetrie und Protokollierung einschränken, was jedoch auch die Fähigkeit des Unternehmens untergraben kann, Missbrauch zu überwachen und problematisches Verhalten zu korrigieren.
Dem Vernehmen nach ist das Pentagon frustriert darüber, dass Anthropic Vorschlägen zur Lockerung von Grenzwerten für Szenarien widerstanden hat, die das Unternehmen als hochriskant eingestuft hat – wie die Steuerung vollständig autonomer Waffen und Massenüberwachung im Inland. Dies sind Bereiche, in denen viele KI-Firmen, nicht nur Anthropic, strikte Verbote für autonome Entscheidungsfindungen verteidigt haben, die ohne menschliche Aufsicht zu tödlichen Folgen führen könnten.
Wie sich ein Abbruch des Zugangs auf Sicherheit und Schutz auswirken könnte
Sollte das Pentagon seine Drohung wahr wahr machen und die Verbindungen zu Anthropic kappen, wäre die unmittelbare Folge ein begrenzteres Spektrum an Anbietern für die US-Verteidigungsgemeinschaft. Dies würde wahrscheinlich die internen Bemühungen des Verteidigungsministeriums beschleunigen, maßgeschneiderte Modelle zu entwickeln oder in Auftrag zu geben, die Abhängigkeit von Firmen erhöhen, die breiteren Nutzungsbedingungen zustimmen, oder Partnerschaften mit ausländischen Lieferanten fördern – wobei jedes Ergebnis eigene Kompromisse bei Sicherheit und Aufsicht mit sich bringt. Ein Abbruch könnte Behörden auch dazu veranlassen, Lösungen mit weniger anbieterseitigen Sicherheitskontrollen zu akzeptieren, was das Risiko von Missbrauch oder unbeabsichtigten Folgen erhöht.
Umgekehrt argumentieren Unternehmen, die an robusten Sicherheitsbeschränkungen festhalten, dass diese Leitplanken Folgerisiken verringern, eine schleichende Funktionsausweitung (Mission Creep) verhindern und das öffentliche Vertrauen wahren. Das Patt zeigt eine tiefergehende strategische Entscheidung auf: ob Akteure der nationalen Sicherheit unternehmerische Leitplanken tolerieren, die bestimmte militärische Anwendungen einschränken, oder ob sie auf uneingeschränkten Zugang bestehen und neue Aufsichtslasten innerhalb staatlicher Systeme akzeptieren.
Präzedenzfälle aus der Vergangenheit und der breitere politische Kontext
Das Verteidigungsministerium hat bereits früher KI-Forschung finanziert und Partnerschaften mit der Industrie geschlossen, aber der gegenwärtige Moment sticht durch die Skalierbarkeit und Reife der kommerziell verfügbaren großen Sprachmodelle hervor. Frühere Kooperationen umfassten bedingte Zuschüsse und Pilotprojekte, die spezifische Sicherheitsvorkehrungen erforderten; bei dem aktuellen Streit geht es um allgemeine operative Bedingungen und nicht um die Finanzierung von Pilotprojekten. Die Drohung des Pentagons, die Zusammenarbeit mit einem Anbieter wegen Richtlinien-Unstimmigkeiten abzubrechen, stellt eine Eskalation in der Öffentlichkeit dar und signalisiert harte Verhandlungen für alle großen Anbieter fortschrittlicher KI-Werkzeuge.
Es spielen auch politische Faktoren eine Rolle. Persönlichkeiten des öffentlichen Lebens und Konkurrenten haben sich eingeschaltet – allen voran Elon Musk, der kürzlich in öffentlichen Kommentaren die Modelle von Anthropic angriff – was unterstreicht, dass Debatten über Voreingenommenheit, Sicherheit und die angemessene Rolle von KI in militärischen Kontexten nun Teil einer lautstarken öffentlichen Diskussion sind und nicht mehr nur geschlossene Beschaffungsstreitigkeiten.
Verhandlungen und die nächsten Schritte
Beide Seiten haben Anreize, einen endgültigen Bruch zu vermeiden. Das Pentagon benötigt modernste Fähigkeiten; die Firmen wollen das Regierungsgeschäft behalten und vermeiden, von bedeutenden Aufträgen ausgeschlossen zu werden. Zu erwarten sind intensive Verhandlungen hinter den Kulissen über Vertragssprache, technische Isolationsmaßnahmen (zum Beispiel Air-Gapped- oder Offset-Bereitstellungen), verbesserte Audit- und Aufsichtsverfahren und möglicherweise neue rechtliche Konstrukte, die die Haftung und die akzeptable Nutzung in klassifizierten Kontexten klären.
Für die breite Öffentlichkeit und die Politik wirft dieser Streit bekannte Fragen über Exportkontrollen, die Aufsicht über Dual-Use-Technologien und die Notwendigkeit neuer Governance-Modelle für KI im Bereich der nationalen Sicherheit auf. Unabhängig vom unmittelbaren Ergebnis wird die Verhandlung Präzedenzfälle dafür schaffen, wie Regierungen und private KI-Entwickler sensible Fähigkeiten teilen und gleichzeitig versuchen, Sicherheitsleitplanken intakt zu halten.
Quellen
- Öffentliche Erklärungen und Beschaffungsunterlagen des US-Verteidigungsministeriums (Pentagon)
- Pressematerialien und Unternehmenserklärungen von Anthropic
- Öffentliche Bekanntmachungen von Palantir Technologies zu Partner-Bereitstellungen
Kommentare
Noch keine Kommentare. Seien Sie der Erste!