OpenAI sichert sich Deal mit dem Pentagon

OpenAI Wins Pentagon Deal
OpenAI gab eine Vereinbarung mit dem US-Verteidigungsministerium über den Einsatz seiner Modelle in als geheim eingestuften Netzwerken bekannt – nur wenige Stunden, nachdem die Trump-Administration den Konkurrenten Anthropic auf eine schwarze Liste gesetzt hatte. Das Abkommen wirft unmittelbare Fragen zu Sicherheitsgrenzen, der Marktmacht von Anbietern und der künftigen Ausgestaltung von Partnerschaften zwischen Militär und Technologiebranche auf.

Am Freitag, den 27. Februar 2026, gab OpenAI-CEO Sam Altman auf X bekannt, dass „wir heute Abend eine Vereinbarung mit dem Department of War getroffen haben, um unsere Modelle in deren klassifiziertem Netzwerk einzusetzen“. Diese Entwicklung erfolgte nur wenige Stunden, nachdem Präsident Donald Trump die US-Behörden angewiesen hatte, die Nutzung von Technologien von Anthropic einzustellen, und das Pentagon dazu überging, Anthropic als Lieferkettenrisiko einzustufen. Die Schlagzeile „OpenAI schließt Deal mit Pentagon“ verbreitete sich schnell in den Feeds der Branche und der Politik; die kurzen, knappen öffentlichen Erklärungen lassen viele technische und rechtliche Details offen, aber die unmittelbaren Konturen sind klar: OpenAI gibt an, dass das Verteidigungsministerium seine roten Linien in Bezug auf die Sicherheit akzeptiert hat und seine Modelle auf klassifizierten Systemen betreiben wird, während Anthropic formal aus einigen Regierungskanälen verdrängt wurde. Die Abfolge – eine schwarze Liste für das eine Unternehmen und ein Pachtvertrag für das andere – kristallisiert eine neue, spannungsgeladene Beziehung zwischen führenden KI-Laboren und nationalen Sicherheitsinstitutionen heraus.

OpenAI schließt Deal mit Pentagon — was die Vereinbarung umfasst

Gemäß dem Post von OpenAI und der darauffolgenden Unternehmenskommunikation gestattet der Deal dem Verteidigungsministerium, OpenAI-Modelle innerhalb klassifizierter Netzwerke einzusetzen, während die roten Linien des Unternehmens gewahrt bleiben, die eine inländische Massenüberwachung und den vollautonomen Einsatz tödlicher Gewalt untersagen. Sam Altman sagte, das DoD habe „einen tiefen Respekt für Sicherheit gezeigt“ und Formulierungen zugestimmt, die diese Verbote widerspiegeln; OpenAI verpflichtete sich zudem zum Aufbau technischer Schutzvorkehrungen und zur Abstellung von Personal, um den Betrieb und die Überwachung der Modelle zu unterstützen. Öffentliche Berichte beschreiben die Vereinbarung als explizit auf die klassifizierte Umgebung des Ministeriums begrenzt und nicht als Pauschallizenz für jeden kommerziellen Partner, aber die genauen technischen Bedingungen, Prüfungsrechte und Aufsichtsmechanismen des DoD wurden nicht vollständig offengelegt.

Aus technischer Sicht sind die Hauptpunkte bekannt, aber schwer umzusetzen: Nichtnutzung für inländische Massenüberwachung, menschliche Verantwortung für die Anwendung von Gewalt und Instrumente, die Verhaltensbeschränkungen durchsetzen. Diese Standards können als vertragliche Verpflichtungen, Software-Guardrails und Beratungsteams vor Ort implementiert werden, hängen jedoch von Verifizierungsmechanismen ab, die die Öffentlichkeit nicht einsehen kann. Das DoD hat in der Vergangenheit tiefe, teils invasive Inspektionen der Werkzeuge und Lieferketten von Anbietern verlangt; ob der Kontrollwille des Pentagons mit den Versprechen von OpenAI übereinstimmen wird und ob die technischen Schutzmaßnahmen in operativen Umgebungen skalierbar sind, bleibt eine offene Frage.

OpenAI schließt Deal mit Pentagon und die Anthropic-Folgen

Die Ankündigung von OpenAI erfolgte im Schatten eines hochkarätigen Konflikts zwischen Anthropic und dem Verteidigungsministerium, der mit einer harten Reaktion des Weißen Hauses und des Pentagons endete. Verteidigungsminister Pete Hegseth stellte Anthropic ein Ultimatum, die militärische Nutzung seiner Modelle „für alle rechtmäßigen Zwecke“ zu gestatten. Nachdem die Gespräche gescheitert waren, stufte das Ministerium Anthropic als „Lieferkettenrisiko für die nationale Sicherheit“ ein. Präsident Trump wies daraufhin die Bundesbehörden an, die Nutzung der Anthropic-Technologie einzustellen. Anthropic erklärte, die Einstufung rechtlich anfechten zu wollen, und betonte, dass man auf Richtlinien bestanden habe, die den Einsatz seiner Modelle für voll autonome Waffen und inländische Massenüberwachung untersagen.

Technische Schutzmaßnahmen und operative Grenzen

Sowohl das Pentagon als auch KI-Unternehmen sprechen von roten Linien und Schutzmaßnahmen, aber die Übersetzung dieser Prinzipien in dauerhafte, prüfbare Beschränkungen ist schwierig. Das Verbot inländischer Massenüberwachung oder des autonomen Einsatzes von Gewalt ist rechtlich bedeutsam, hängt aber von täglichen technischen Kontrollen, Zugriffsrichtlinien, Telemetrie, Protokollierung und der Fähigkeit ab, die Einhaltung bei Audits nachzuweisen. OpenAI hat erklärt, Personal zur Unterstützung des sicheren Betriebs einzusetzen und technische Schutzwälle zu errichten; in der Praxis erfordern solche Maßnahmen eine unabhängige Verifizierung, kontinuierliche Überwachung und klare Eskalationspfade, wenn sich ein Modell unvorhersehbar verhält.

Darüber hinaus werden viele der gängigen Verteidigungsmechanismen – gründliche Modelltests, robuste Herkunftsnachweise der Trainingsdaten und Software zur Durchsetzung von Nutzungsrichtlinien – in klassifizierten Netzwerken komplexer. Die eigene KI-Strategie des DoD vom Januar betont die schnelle Übernahme kommerzieller Fähigkeiten, fordert jedoch gleichzeitig Einblick in Abhängigkeiten und Risiken. Dieses Spannungsfeld – schnelle Einsatzbereitschaft versus tiefgehende Absicherung – ist der Grund, warum technische Schutzmaßnahmen sowohl von Programmmanagern als auch von externen Aufsichtsinstanzen genauestens geprüft werden.

Branchenhebel, Beschaffung und politische Risiken

Die Episode offenbart ein sich verschiebendes Machtgefüge: Kommerzielle KI-Labore verfügen nun über Fähigkeiten, die das Militär benötigt, und Regierungen müssen entscheiden, wie sie Partnerschaften eingehen, ohne die strategische Kontrolle aufzugeben. Experten sagen, dass der kurzfristige Hebel bei den Firmen liegt, die über führende Modelle und knappe Talente verfügen, doch souveräne Regierungen behalten Beschaffungsinstrumente, regulatorische Hebel und rechtliche Autorität. Das DoD kann die Einhaltung durch Vertragsregeln, die Verweigerung des Zugangs zu Geheimunterlagen oder andere Instrumente erzwingen; Unternehmen können die Zusammenarbeit verweigern, um ihren Ruf oder ihre Unternehmenswerte zu schützen. Beide Seiten können der anderen Kosten auferlegen, was einen fragilen öffentlich-privaten Pakt schafft.

Politisch warnten Kritiker, dass die schwarze Liste für Anthropic und die gleichzeitige Bevorzugung von OpenAI dazu genutzt werden könnten, Aufträge an bevorzugte Anbieter zu lenken oder Unternehmen zu bestrafen, die auf Sicherheitsbeschränkungen bestehen. Prominente Politiker und Sicherheitsbeamte haben sich bereits geäußert, wobei einige Demokraten der Regierung vorwerfen, Entscheidungen zur nationalen Sicherheit zu politisieren, während einige Verteidigungsführer argumentieren, das Militär könne es nicht zulassen, dass Anbieter rechtmäßige Nutzungen einseitig einschränken. Der breitere Marktkontext – große Finanzierungsrunden, Cloud-Partnerschaften und kommerzielle Konsolidierung – bedeutet, dass Beschaffungsentscheidungen Auswirkungen auf ein gesamtes Ökosystem von Zulieferern, Chipherstellern und Cloud-Anbietern haben.

Was dies für die nationale Sicherheit und die KI-Branche bedeutet

Für das Pentagon verspricht die Integration erstklassiger kommerzieller Modelle schnellere Fähigkeitsverbesserungen, führt jedoch zu Abhängigkeiten und potenziellen Risiken durch die Bindung an einen einzigen Anbieter. Analysten warnen, dass eine übermäßige Abhängigkeit von einem einzigen Provider bei einem Ausfall des Zugangs zu Fragilität führen könnte und ein Vendor-Lock-in eine langfristige strategische Belastung darstellen könnte. Das DoD balanciert zudem die kurzfristige Einsatzbereitschaft gegen die Wahrung demokratischer Normen und rechtlicher Beschränkungen ab; wie es diesen schmalen Grat beschreitet, wird die künftige Zusammenarbeit mit Tech-Firmen und die Anreize prägen, denen Unternehmen gegenüberstehen, wenn sie sich entscheiden, Sicherheit gegenüber dem Marktzugang zu priorisieren.

Für die KI-Branche markiert der Vorfall einen Praxistest dafür, ob Sicherheitszusagen tragfähig sind, wenn es um enorme Summen aus dem nationalen Sicherheitsbudget und intensiven politischen Druck geht. Der Rechtsstreit von Anthropic und die öffentlichen Zusicherungen von OpenAI werden in Gerichtssälen, Behörden und Beschaffungsstellen ausgetragen. In der Zwischenzeit werden private Investitionen und Cloud-Partnerschaften – einschließlich großer jüngster Zusagen zwischen OpenAI und führenden Cloud-Anbietern – beeinflussen, welche Architekturen und Bereitstellungsmodelle die Regierung akzeptiert. Der Kampf ist daher sowohl rechtlicher als auch technischer Natur und wird Präzedenzfälle dafür schaffen, wie viel Kontrolle Unternehmen behalten können, wenn ihre Technologien als strategische Infrastruktur behandelt werden.

Quellen

  • U.S. Department of Defense (Memorandum zur Strategie für Künstliche Intelligenz, 9. Jan. 2026)
  • Georgetown University, Center for Security and Emerging Technology (Analystenkommentar)
  • Aspen Policy Academy (Politikanalyse und Kommentar)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Was ist der OpenAI-Pentagon-Deal und was beinhaltet er?
A Der OpenAI-Pentagon-Deal ist eine am 28. Februar 2026 angekündigte Vereinbarung, die es dem Verteidigungsministerium erlaubt, die KI-Modelle von OpenAI in seinen geheimen Netzwerken einzusetzen. Er umfasst ethische Schutzmaßnahmen wie das Verbot inländischer Massenüberwachung und Anforderungen an die menschliche Verantwortung beim Einsatz von Gewalt, einschließlich autonomer Waffen, wobei technische Lösungen in die Modelle integriert sind, um dies durchzusetzen. OpenAI-CEO Sam Altman erklärte, dass das Pentagon diese Sicherheitsprinzipien respektiere, die im US-Recht und in der US-Politik verankert sind.
Q Warum wurde Anthropic laut CNBC von Trump auf die schwarze Liste gesetzt?
A Berichten zufolge wurde Anthropic von der Trump-Administration auf die schwarze Liste gesetzt, nachdem es sich geweigert hatte, seine Beschränkungen für den Einsatz von KI bei inländischer Massenüberwachung und vollautonomen Waffen aufzugeben, was zu einem Stillstand mit dem Pentagon führte. Präsident Trump wies die Bundesbehörden an, die Anthropic-Technologie schrittweise abzuschaffen, und Kriegsminister Pete Hegseth bezeichnete das Unternehmen als „Lieferkettenrisiko für die nationale Sicherheit“, wodurch es Auftragnehmern untersagt wurde, Geschäfte mit ihm zu machen. Diese beispiellose Maßnahme erfolgte nur wenige Stunden vor der Bekanntgabe des Deals mit OpenAI.
Q Wie könnte der Pentagon-Vertrag von OpenAI die KI-Industrie und nationale Sicherheitsaspekte beeinflussen?
A Der Pentagon-Vertrag von OpenAI könnte seine Position in der KI-Branche stärken, indem er den Zugang zu Regierungsaufträgen und Finanzmitteln sichert, während das Wachstum von Anthropic durch die Aufnahme in die schwarze Liste und den Ausschluss aus Bundessystemen schwer geschädigt wird. Für die nationale Sicherheit ermöglicht er den Einsatz von KI in geheimen Netzwerken mit Schutzmaßnahmen, was die militärischen KI-Fähigkeiten angesichts geopolitischer Spannungen wie den Maßnahmen der USA und Israels gegen den Iran potenziell beschleunigen könnte. Experten weisen darauf hin, dass dies Fragen zum Verhältnis zwischen Regierung und Wirtschaft aufwirft und einen Präzedenzfall für „patriotische“ KI-Anbieter schafft.
Q Was besagt der Bericht von CNBC über den Deal von OpenAI mit dem Pentagon und den Status von Anthropic?
A Berichten von CNBC (via Fortune) zufolge hat OpenAI eine Vereinbarung getroffen, nach der das Pentagon seine KI-Modelle in geheimen Systemen einsetzen darf. Dabei wurden Sicherheitsbeschränkungen für Massenüberwachung und autonome Waffen anders integriert als bei Anthropic, indem sie auf das US-Recht abgestimmt und technische Schutzmaßnahmen eingebaut wurden. Stunden zuvor hatte die US-Regierung Anthropic als „Lieferkettenrisiko“ eingestuft und damit dessen Geschäft bedroht, nachdem das Unternehmen auf expliziten Vertragsbeschränkungen beharrt hatte, die das Pentagon ablehnte. Der Ansatz von OpenAI erlaubte „jeden rechtmäßigen Zweck“ bei gleichzeitig eingebetteten Schutzmaßnahmen.
Q Welche Bedingungen oder welchen Umfang deckt der Pentagon-Vertrag mit OpenAI ab?
A Der Pentagon-Vertrag mit OpenAI deckt den Einsatz seiner KI-Modelle in geheimen Netzwerken für jeden rechtmäßigen Zweck ab, wobei integrierte technische Schutzmaßnahmen den Einsatz für inländische Massenüberwachung oder tödliche autonome Waffen verhindern. Er verankert Verbote für Massenüberwachung und die menschliche Verantwortung für den Einsatz von Gewalt im Einklang mit dem US-Recht und der US-Politik und zieht OpenAI-Ingenieure hinzu, um die Sicherheit zu gewährleisten. OpenAI strebt an, dass diese Bedingungen auf alle KI-Unternehmen ausgeweitet werden.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!