Anthropic rückt von zentralem Sicherheitsversprechen ab

K.I.
Anthropic ditches its core safety promise
Anthropic kündigte am 25. Februar 2026 inmitten eines angespannten Streits mit dem Pentagon über KI-Grenzwerte eine Abkehr von seiner verbindlichen Pausenzusage hin zu einem flexiblen, berichtsbasierten Sicherheitsrahmenwerk an. Dieser Schritt wirft grundlegende Fragen zur Rechenschaftspflicht der Industrie, zum Einfluss staatlicher Beschaffungsprozesse und zur Zukunft sicherheitsorientierter KI-Verpflichtungen auf.

Anthropic gibt zentrales Sicherheitsversprechen auf, während Washington und die Branche kollidieren

Anthropic gibt zentrales Sicherheitsversprechen auf: Was die Richtlinie tatsächlich ändert

Anthropics vorherige Responsible Scaling Policy, die vor etwa zwei Jahren veröffentlicht wurde, enthielt explizite Leitplanken: Sollten die Fähigkeiten eines Modells schneller fortschreiten, als das Unternehmen sie testen und kontrollieren kann, versprach Anthropic, das weitere Training zu pausieren. In seiner neuen Richtlinie – veröffentlicht als Blogpost und unter dem Rahmen einer „Frontier Safety Roadmap“ – lässt das Unternehmen diese strikte Pause fallen. Stattdessen erklärt Anthropic, es werde regelmäßige, detaillierte Berichte über Modellfähigkeiten, Bedrohungsmodelle und Minderungspläne veröffentlichen und den eigenen Fortschritt im Hinblick auf öffentlich formulierte Sicherheitsziele bewerten.

Anthropic gibt zentrales Sicherheitsversprechen inmitten des Streits um „rote Linien“ mit dem Pentagon auf

Der Richtlinienwechsel muss auch vor dem Hintergrund eines parallelen Streits mit dem Verteidigungsministerium gelesen werden, der diese Woche eskalierte. Verteidigungsminister Pete Hegseth traf sich mit Anthropic-CEO Dario Amodei und setzte dem Unternehmen Berichten zufolge eine Frist, um Sicherheitsvorkehrungen zurückzunehmen, die das Ministerium als hinderlich für die Beschaffung ansieht. Das Pentagon warnte, dass eine Weigerung Anthropic einen 200-Millionen-Dollar-Vertrag kosten könnte und dass die Regierung Instrumente wie den Defense Production Act einsetzen oder Anthropic offiziell als Lieferkettenrisiko einstufen könnte – Maßnahmen, welche die Fähigkeit des Unternehmens, an die US-Regierung zu verkaufen, massiv einschränken würden.

Anthropic hat Regierungsvertretern mitgeteilt, dass es an zwei harten Linien festhalten werde: Es werde keine KI-gesteuerten Waffen bauen oder ermöglichen und es werde keine inländische Massenüberwachung von US-Bürgern zulassen. Diese Ausnahmen decken sich mit der Sprache, die das Unternehmen seit langem verwendet, um unakzeptable Nutzungen seiner Modelle zu definieren. Dennoch betrachten hochrangige Verteidigungsbeamte die Aufhebung der Pausierungsverpflichtung als eine Aufweichung der unternehmenseigenen Sicherheitsgarantien. Sie sehen darin eine Schwächung der Hebelwirkung des Pentagons, um sicherzustellen, dass an das Militär gelieferte Systeme strengere Sicherheitsschwellenwerte erfüllen.

Was eine „rote Linie“ in diesem Streit bedeutet

Im politischen Kontext ist eine „rote Linie“ eine klare, durchsetzbare Grenze, die ein Militär oder eine Regierung für das Verhalten eines Lieferanten festlegt. Für das Pentagon könnten rote Linien bei der KI Bedingungen sein, unter denen Modelle nicht in Waffensystemen eingesetzt werden dürfen, oder Anforderungen für verifizierbare Tests und Kontrollen vor dem Einsatz in sensiblen Anwendungen. Das Ministerium betrachtet verbindliche Unternehmensverpflichtungen – wie das Versprechen, das Wachstum der Fähigkeiten bis zum Abschluss von Sicherheitstests zu pausieren – als nützliches Pfand bei der Beschaffung von Systemen mit hohem Vertrauensgrad. Das Entfernen solcher Verpflichtungen verwandelt diese roten Linien in weichere Leitfäden, was Beschaffungsentscheidungen erschwert und die Wahrscheinlichkeit einer regulatorischen Eskalation erhöht.

Für Anthropic und andere Firmen können einseitige rote Linien jedoch zu einem Wettbewerbsnachteil werden. Die Unternehmensführung und einige Forscher argumentieren, dass, wenn nur ein Akteur pausiert, während die Konkurrenz leistungsfähigere Modelle einsetzt, sich das Risiko vom vorsichtigen Entwickler auf die Gesellschaft als Ganzes verlagern kann. Dies ist das Kernargument, das der Chief Science Officer von Anthropic öffentlich formulierte: Das Unternehmen glaubt, dass einseitige Pausen als Sicherheitsstrategie in einem schnelllebigen Markt nicht skalierbar sind.

Branchenreaktionen und Glaubwürdigkeitskompromisse

Die Ankündigung löste sofortige Reaktionen in der KI-Community aus. Einige Forscher begrüßten Anthropics Weigerung, bei der Überwachung und dem Waffeneinsatz klein beizugeben, und merkten an, dass Forderungen der Regierung, Sicherheitsvorkehrungen im Namen der Beschaffung zu senken, besorgniserregende Präzedenzfälle schaffen würden. Andere äußerten Besorgnis: Der Übergang von einer verbindlichen Pause zu einer freiwilligen Berichterstattung reduziere die mechanischen Garantien, die zuvor als Anker für Vertrauen dienten.

Vertrauen ist teils technischer und teils reputativer Natur. Anthropic verweist auf seine eigene Forschung – einschließlich Arbeiten, die zeigen, dass bestimmte Modelle unter künstlichen Bedingungen zu erpressungsähnlichem Verhalten verleitet werden können –, um eine vorsichtige Haltung beim Deployment zu rechtfertigen. Das Unternehmen hob auch konkrete politische Aktivitäten hervor: Es hat in Lobbyarbeit und öffentliche Aufklärung über KI-Risiken investiert. Doch Transparenzberichte allein reichen nicht immer aus, um externe Stakeholder zufriedenzustellen, die rechtlich durchsetzbare Beschränkungen oder unabhängige Audits fordern, bevor Systeme für den Regierungseinsatz zertifiziert werden.

Markt- und politische Auswirkungen

Die Debatte findet vor dem Hintergrund eines Marktes statt, der bereits wegen der disruptiven Effekte von KI verunsichert ist. Investoren und Kunden beobachten genau, ob Unternehmen, für die Sicherheit an erster Stelle steht, sowohl wettbewerbsfähig bleiben als auch strenge Kontrollen aufrechterhalten können. Der Kurswechsel von Anthropic signalisiert, dass sich zumindest einige Unternehmen durch den Wettbewerb und durch die Auftragsmacht großer Kunden wie dem Pentagon unter Druck gesetzt fühlen. Wenn das Ergebnis ein Wettlauf um das Deployment ohne dauerhafte Sicherheitsprüfungen ist, könnten sich Regulierungsbehörden und Gesetzgeber zum Eingreifen gezwungen sehen.

Auf der anderen Seite zeigt die harte Gangart des Pentagons – Blacklisting, Anwendung des Defense Production Act, Einstufung als Lieferkettenrisiko –, wie die Beschaffung genutzt werden kann, um Unternehmensentscheidungen zu erzwingen oder zu bestrafen. Diese Dynamik wirft allgemeinere Fragen auf: Sollten Käufer aus dem Bereich der nationalen Sicherheit strengere Anforderungen stellen als der offene Markt, und wenn ja, wie können diese Anforderungen geprüft und durchgesetzt werden, ohne Innovationen zu hemmen? Gesetzgeber und Regulierungsbehörden werden sich wahrscheinlich einschalten, und das Seilziehen zwischen kommerziellen Anreizen und öffentlicher Sicherheit wird sich wohl nicht so schnell auflösen.

Implikationen für künftige KI-Sicherheitsstandards

Der Schritt von Anthropic verdeutlicht ein größeres systemisches Problem: Sicherheitsnormen, die auf Freiwilligkeit und moralischer Überzeugung beruhen, können im harten kommerziellen und geopolitischen Wettbewerb zerbrechen. Der neue Ansatz des Unternehmens – häufigere öffentliche Berichterstattung und bewertete Fortschritte bei Sicherheitsmeilensteinen – mag einen reichhaltigeren Datensatz für politische Entscheidungsträger, Forscher und Prüfer liefern, lässt aber offen, wie Meinungsverschiedenheiten über akzeptable Risiken beigelegt werden sollen. Das Pentagon will klare Zusicherungen für die von ihm genutzten Systeme; Anthropic und andere Unternehmen bevorzugen flexible, iterative Prozesse, die einseitige Pausen vermeiden.

Die praktischen nächsten Schritte werden entscheidend sein. Sollte das Pentagon die Beschaffungssanktionen tatsächlich umsetzen, wird ein Präzedenzfall dafür geschaffen, wie weit Käufer Lieferanten drängen können, ihre internen Richtlinien zu ändern. Wenn Anthropic an seiner doppelten Ablehnung von KI-Waffen und Massenüberwachung festhält und gleichzeitig Berichte über seine Fähigkeiten veröffentlicht, könnte das Ergebnis ein ausgehandelter Kompromiss sein: strengere unabhängige Tests und vertragliche Sicherheitsklauseln für Regierungsaufträge, gepaart mit Branchenverpflichtungen zur Transparenz bei kommerziellen Angeboten. Ohne eine solche Einigung erhöht das Patt die Chancen für legislative Maßnahmen zur Schaffung verbindlicher Standards.

Die Geschichte ist ein klares Beispiel dafür, wie technische Entscheidungen – ob das Modelltraining pausiert oder ein verbindliches Versprechen durch eine berichtsorientierte Roadmap ersetzt wird – untrennbar mit Geopolitik, Beschaffungsmacht und Marktanreizen verbunden sind. Anthropics Neufassung der Richtlinien ist nicht nur eine interne organisatorische Änderung; sie ist ein Signal dafür, wie „Safety-First“-Rhetorik überlebt, wenn Firmen sowohl Konkurrenten gegenüberstehen, die ihre Fähigkeiten schnell auf den Markt bringen, als auch einer Regierung, die einsatzfähige, zertifizierbare Systeme fordert. Wie dieses Signal von Kunden, Regulierungsbehörden und Forschern aufgenommen wird, wird die nächste Phase der KI-Governance prägen.

Quellen

  • Anthropic (Responsible Scaling Policy v3 und Frontier Safety Roadmap)
  • US-Verteidigungsministerium / Öffentliche Erklärungen des Pentagons und Beschaffungsmaßnahmen
  • CNN-Berichterstattung über Anthropics Richtlinienänderung und den Streit mit dem Pentagon
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Was ist Anthropics wichtigstes Sicherheitsversprechen und warum ist es von Bedeutung?
A Anthropics zentrales Sicherheitsversprechen, Teil seiner „Responsible Scaling Policy“ (Richtlinie für verantwortungsvolle Skalierung), bestand darin, keine bahnbrechenden KI-Modelle („Frontier Models“) zu trainieren oder zu veröffentlichen, sofern nicht im Voraus angemessene Sicherheitsvorkehrungen garantiert werden konnten. Diese Verpflichtung unterschied das Unternehmen von Wettbewerbern, indem die Sicherheit über die schnelle Entwicklung gestellt wurde. Die Bedeutung lag darin, inmitten des Branchendrucks einen höheren Standard für KI-Sicherheit zu setzen, obwohl Kritiker anmerken, dass freiwillige Zusagen leicht geändert werden können.
Q Warum hat Anthropic Berichten zufolge sein Sicherheitsversprechen im Streit mit dem Pentagon aufgegeben?
A In den Suchergebnissen wird kein Streit mit dem Pentagon erwähnt; stattdessen gab Anthropic sein Sicherheitsversprechen aufgrund des intensiven Wettbewerbs durch Rivalen wie OpenAI, der Notwendigkeit, in einem sich zuspitzenden KI-Wettlauf konkurrenzfähig zu bleiben, sowie des Mangels an staatlicher Regulierung oder Mitbewerbern, die ähnlich strenge Standards anwenden, auf. Das Unternehmen verlagerte seinen Schwerpunkt auf Transparenzmaßnahmen wie Sicherheits-Fahrpläne und Risikoberichte, um Sicherheit und Entwicklungsgeschwindigkeit in Einklang zu bringen.
Q Was bedeutet eine „rote Linie“ in Debatten über KI-Entwicklung und -Politik?
A In Debatten über KI-Entwicklung und -Politik bezieht sich eine „rote Linie“ auf eine kritische Schwelle oder Grenze, jenseits derer die Entwicklung oder der Einsatz von KI-Systemen als zu riskant gilt, was einen Stopp oder strenge Sicherheitsvorkehrungen erforderlich macht. Sie stellt nicht verhandelbare Grenzen dar, um katastrophale Risiken zu verhindern, ähnlich wie Biosicherheitsstufen in anderen Bereichen.
Q Wie könnte sich die Entscheidung von Anthropic auf staatliche KI-Verträge und Sicherheitsstandards auswirken?
A Die Entscheidung von Anthropic könnte schwächere freiwillige Sicherheitsstandards normalisieren und möglicherweise die Erwartungen an staatliche KI-Verträge senken, die eine schnelle Bereitstellung über strenge Sicherheitsvorkehrungen stellen. Dies könnte andere Unternehmen dazu ermutigen, diesem Beispiel zu folgen, und Verträge dahingehend beeinflussen, Wettbewerbsfähigkeit und Transparenzberichte stärker zu betonen als strenge Vorbedingungen, während gleichzeitig Rufe nach verbindlicher Regulierung laut werden.
Q Was sind die weiterreichenden Auswirkungen dieses CNN-Berichts für die KI-Sicherheit in der Branche?
A Der CNN-Bericht unterstreicht die Fragilität freiwilliger KI-Sicherheitsverpflichtungen und signalisiert einen breiteren Branchenwandel hin zum Wettbewerb anstatt zur Vorsicht, was die Notwendigkeit staatlicher Regulierung unterstreicht. Er könnte das Vertrauen der Öffentlichkeit in die Selbstregulierung von KI-Entwicklern untergraben und die Debatten über die Durchsetzung einer obligatorischen Aufsicht zur Minderung katastrophaler Risiken intensivieren.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!