Pentagon kontra Anthropic: Groźba zerwania współpracy

Sztuczna Inteligencja
Pentagon vs Anthropic: Cut-off Threat
Pentagon grozi odcięciem firmy Anthropic od kontraktów z powodu ograniczeń w militarnym wykorzystaniu jej sztucznej inteligencji, naciskając na udostępnienie narzędzi w sieciach niejawnych. Impas ten uwidacznia napięcia między wymogami obronności, korporacyjnymi barierami bezpieczeństwa a ryzykiem dla bezpieczeństwa narodowego.

Pentagon grozi zerwaniem współpracy, gdy rozmowy z Anthropic utknęły w martwym punkcie

W tym tygodniu Pentagon zagroził zerwaniem współpracy z Anthropic, zgodnie z doniesieniami, które pojawiły się 16 lutego 2026 r., w związku z naciskami Departamentu Obrony USA na firmę, aby poluzowała ograniczenia dotyczące wykorzystania jej dużych modeli językowych przez wojsko. Spór – o którym poinformowało CNBC obok wcześniejszych doniesień Reuters i Axios – koncentruje się na tym, czy komercyjne firmy zajmujące się AI pozwolą na wykorzystanie swoich systemów do celów, które Pentagon określa jako „wszelkie zgodne z prawem cele”, w tym rozwój broni, zbieranie danych wywiadowczych i operacje na polu bitwy. Anthropic twierdzi, że nie ustępuje w kwestii konkretnych ograniczeń bezpieczeństwa, takich jak ścisłe limity dotyczące w pełni autonomicznej broni i masowej inwigilacji krajowej, a spór zaostrzył się do gróźb zerwania relacji.

Pentagon grozi odcięciem: punkty zapalne natury prawnej i kontraktowej

Sercem konfliktu jest język prawny i kontraktowy. Pentagon chce dostępu do modeli w sieciach niejawnych oraz szerszych sformułowań, które pozwoliłyby na ich użycie w szeregu misji wojskowych; firmy zazwyczaj zapewniały dostęp pod warunkiem zachowania zabezpieczeń na poziomie modelu i ograniczeń wynikających z polityki firmy. Dla Pentagonu fraza „wszelkie zgodne z prawem cele” to pojedynczy termin kontraktowy, który zmniejszyłby niejednoznaczność dotyczącą dozwolonego użycia wojskowego. Dla firm takich jak Anthropic, OpenAI, Google i xAI, zaakceptowanie tego sformułowania grozi osłabieniem wewnętrznych barier bezpieczeństwa – zarówno technicznych mechanizmów kontrolnych wbudowanych w modele, jak i zobowiązań wynikających z polityki korporacyjnej, mających na celu ograniczenie niewłaściwego użycia.

Negocjacje dotyczą również szczegółów technicznych: sposobu wdrażania modeli w sieciach niejawnych, tego, czy filtry treści i rejestrowanie użycia pozostaną aktywne, oraz kto ponosi odpowiedzialność, jeśli system oparty na AI wygeneruje szkodliwe wyniki. Pentagon sygnalizuje frustrację po miesiącach rozmów; dążenie do usunięcia lub poluzowania ograniczeń odzwierciedla operacyjną chęć korzystania z najbardziej wydajnych systemów dostępnych w środowiskach konfliktowych, podczas gdy firmy obawiają się odpowiedzialności prawnej, ryzyka wizerunkowego i szerszej etyki zastosowań wojskowych.

Jak zareagowało Anthropic i inni dostawcy

Anthropic publicznie oświadczyło, że wczesne rozmowy z rządem USA koncentrowały się na kwestiach polityki użytkowania i wyraźnych granicach – przede wszystkim na zakazie stosowania w pełni autonomicznej broni i ograniczeniach dotyczących masowej inwigilacji krajowej – a nie na zatwierdzaniu konkretnych operacji. Rzecznik firmy powiedział dziennikarzom, że nie omawiano z Pentagonem wykorzystania modelu Claude do konkretnych, taktycznych operacji. Oświadczenie to sąsiaduje z doniesieniami, że Claude został użyty w co najmniej jednej głośnej operacji za pośrednictwem partnera: Wall Street Journal poinformował, że Claude został wdrożony przez Palantir w operacji mającej na celu schwytanie byłego prezydenta Wenezueli, co pokazuje, jak integracje partnerskie komplikują proste charakterystyki powściągliwości korporacyjnej.

Inne duże firmy AI wymienione w doniesieniach – OpenAI, Google i xAI – również znajdują się pod presją Pentagonu, by rozszerzyć dostęp. Reuters i CNBC opisały szerokie prośby Departamentu Obrony (DoD) o udostępnienie modeli w sieciach niejawnych bez wielu standardowych ograniczeń, które firmy stosują wobec użytkowników cywilnych. Firmy różnie podchodzą do tych próśb, balansując między możliwościami kontraktowymi i poświadczeniami bezpieczeństwa a polityką wewnętrzną i zewnętrzną kontrolą.

Dlaczego Pentagon naciska i co chce osiągnąć

Jednak naciskanie na ogólny, otwarty język kontraktowy – „wszelkie zgodne z prawem cele” – budzi pytania o to, jakie zabezpieczenia pozostaną w mocy, gdy modele będą używane w kontekście kinetycznym lub tajnym. Zgodne z prawem użytkowanie to szeroki standard prawny, który nadal wymaga wdrożenia kontroli w celu uniknięcia niezamierzonej eskalacji, szkód wśród ludności cywilnej lub naruszeń prawa krajowego i międzynarodowego. Te wymagania operacyjne są źródłem obecnego napięcia.

Zagrożone zabezpieczenia techniczne i obawy Pentagonu

Firmy budują zabezpieczenia w modelach na dwóch płaszczyznach: kontroli na poziomie modelu (dostrajanie, warstwy bezpieczeństwa, testy red-teaming i filtry treści) oraz kontroli na poziomie polityki (warunki świadczenia usług i kontraktowe ograniczenia użytkowania). Dążenie Pentagonu do ograniczenia lub obejścia restrykcji zmieniłoby sposób działania tych mechanizmów w praktyce. Na przykład, umieszczenie modelu w sieci niejawnej może usunąć część telemetrii i logowania ze względów bezpieczeństwa, ale może również podważyć zdolność firmy do monitorowania niewłaściwego użycia i naprawiania problematycznych zachowań.

Według doniesień Pentagon jest sfrustrowany faktem, że Anthropic opiera się propozycjom złagodzenia limitów w scenariuszach, które firma uznaje za obarczone wysokim ryzykiem – takich jak sterowanie w pełni autonomiczną bronią i masowa inwigilacja krajowa. Są to obszary, w których wiele firm AI, nie tylko Anthropic, broniło surowych zakazów dotyczących autonomicznego podejmowania decyzji, które mogłyby prowadzić do skutków śmiertelnych bez nadzoru człowieka.

Jak odcięcie dostępu może wpłynąć na bezpieczeństwo

Jeśli Pentagon zrealizuje groźbę i zerwie więzi z Anthropic, natychmiastowym skutkiem będzie węższy zestaw dostawców dostępnych dla amerykańskiej społeczności obronnej. To prawdopodobnie przyspieszy wewnętrzne wysiłki DoD zmierzające do budowy lub zakontraktowania dedykowanych modeli, zwiększy zależność od firm, które godzą się na szersze warunki użytkowania, lub zachęci do partnerstwa z zagranicznymi dostawcami – a każdy z tych wyników niesie ze sobą własne kompromisy w zakresie bezpieczeństwa i nadzoru. Odcięcie może również zmusić agencje do zaakceptowania rozwiązań z mniejszą liczbą zabezpieczeń po stronie dostawcy, zwiększając ryzyko niewłaściwego użycia lub niezamierzonych konsekwencji.

Z drugiej strony firmy, które utrzymują rygorystyczne ograniczenia bezpieczeństwa, argumentują, że te bariery zmniejszają ryzyko następcze, zapobiegają rozszerzaniu zakresu misji (tzw. mission creep) i zachowują zaufanie publiczne. Patowa sytuacja ukazuje głębszy wybór strategiczny: czy podmioty odpowiedzialne za bezpieczeństwo narodowe tolerują korporacyjne bariery ograniczające niektóre zastosowania wojskowe, czy też upierają się przy nieograniczonym dostępie i przyjmują nowe obowiązki nadzorcze w ramach systemów rządowych.

Wcześniejsze precedensy i szerszy kontekst polityczny

DoD już wcześniej finansował badania nad AI i tworzył partnerstwa z przemysłem, ale obecny moment wyróżnia się skalą i dojrzałością komercyjnie dostępnych dużych modeli językowych. Wcześniejsza współpraca obejmowała warunkowe granty i projekty pilotażowe wymagające konkretnych zabezpieczeń; obecny spór dotyczy szerokich warunków operacyjnych, a nie finansowania pilotażowego. Groźba Pentagonu dotycząca odcięcia dostawcy z powodu nieporozumień co do polityki jest eskalacją widoczną dla opinii publicznej i sygnalizuje trudne negocjacje przed wszystkimi głównymi dostawcami zaawansowanych narzędzi AI.

W grę wchodzą również naciski polityczne. Głos zabrały osoby publiczne i konkurenci – przede wszystkim Elon Musk, który niedawno zaatakował modele Anthropic w publicznych komentarzach – co podkreśla, że debaty na temat uprzedzeń, bezpieczeństwa i właściwej roli AI w kontekście wojskowym są teraz częścią głośnej debaty publicznej, a nie tylko zamkniętych sporów dotyczących zamówień.

Negocjacje i kolejne kroki

Obie strony mają powody, by unikać całkowitego zerwania. Pentagon potrzebuje najnowocześniejszych możliwości; firmy chcą utrzymać kontrakty rządowe i uniknąć wykluczenia z istotnych zamówień. Należy spodziewać się intensywnych, kuluarowych negocjacji dotyczących języka kontraktów, technicznych środków izolacji (na przykład wdrożeń typu air-gap lub offsetowych), ulepszonych procedur audytu i nadzoru, a być może nowych konstrukcji prawnych wyjaśniających odpowiedzialność i akceptowalne użycie w kontekście niejawnym.

Dla szerszej opinii publicznej i decydentów spór ten rodzi znane pytania o kontrolę eksportu, nadzór nad technologiami podwójnego zastosowania oraz o to, czy wymagane są nowe modele zarządzania dla AI stosowanej w bezpieczeństwie narodowym. Niezależnie od bezpośredniego wyniku, negocjacje te ustanowią precedensy dla sposobu, w jaki rządy i prywatni deweloperzy AI dzielą się wrażliwymi możliwościami, starając się jednocześnie zachować nienaruszone bariery bezpieczeństwa.

Źródła

  • Oświadczenia publiczne i materiały dot. zamówień Departamentu Obrony USA (Pentagonu)
  • Materiały prasowe i oświadczenia firmy Anthropic
  • Publiczne ujawnienia Palantir Technologies dotyczące wdrożeń partnerskich
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Czym jest Anthropic i dlaczego Pentagon grozi odcięciem firmy z powodu zabezpieczeń AI?
A Anthropic to firma zajmująca się sztuczną inteligencją z siedzibą w San Francisco, znana z modelu AI Claude, który był wykorzystywany w operacjach wojskowych, takich jak nalot w Wenezueli. Pentagon, pod kierownictwem sekretarza obrony Pete'a Hegsetha, grozi zerwaniem współpracy i oznaczeniem Anthropic jako „zagrożenia dla łańcucha dostaw” z powodu odmowy firmy na nieograniczone wykorzystanie Claude'a do wszelkich zgodnych z prawem celów wojskowych. Firma upiera się przy zachowaniu zabezpieczeń przeciwko masowej inwigilacji Amerykanów i broni autonomicznej. Spór ten zaostrzył się pomimo wielomiesięcznych negocjacji, a Pentagon uważa ograniczenia Anthropic za zbyt restrykcyjne.
Q Jakich zabezpieczeń AI, według Pentagonu, nie spełnił Anthropic?
A Pentagon stwierdził, że Anthropic nie spełnił wymogów dotyczących nieograniczonego dostępu do Claude AI we wszystkich zgodnych z prawem celach wojskowych, szczególnie w systemach niejawnych. Anthropic dąży do zawarcia w umowach zapisów zakazujących masowej inwigilacji Amerykanów oraz opracowywania broni działającej bez udziału człowieka, co Pentagon uznaje za niepraktyczne ze względu na niejednoznaczności prawne. Pentagon naciska również na OpenAI, Google i xAI w kwestii uzyskania podobnego, nieograniczonego dostępu.
Q Czy Pentagon podjął podobne działania przeciwko innym firmom AI?
A Pentagon nie podjął jeszcze podobnych kroków, takich jak oznaczenie innych firm AI jako zagrożenia dla łańcucha dostaw, ale prowadzi trudne negocjacje z OpenAI, Google i xAI w sprawie tych samych kwestii nieograniczonego dostępu. Firmy te zgodziły się na złagodzenie ograniczeń w zastosowaniach wojskowych w systemach niejawnych, choć nie zostało to jeszcze w pełni wdrożone w przypadku wrażliwych operacji. Obecnie nie ma raportów wskazujących na faktyczne odcięcie lub specjalne oznaczenia dla tych firm.
Q Jak odcięcie Anthropic może wpłynąć na bezpieczeństwo AI i inicjatywy bezpieczeństwa narodowego?
A Odcięcie Anthropic mogłoby zaszkodzić bezpieczeństwu narodowemu poprzez zakłócenie dostępu do Claude'a, który przoduje w specjalistycznych zastosowaniach wojskowych, podczas gdy konkurencyjne modele są „tuż za nim”, co potencjalnie może opóźnić krytyczne operacje. Może to również wywrzeć presję na firmy AI, aby osłabiły zabezpieczenia, co grozi zwiększeniem naruszeń prywatności poprzez masową inwigilację lub rozwój broni autonomicznej. Z drugiej strony, tworzy to precedens priorytetyzowania potrzeb wojskowych nad korporacyjnymi ograniczeniami AI, co może przyspieszyć inicjatywy obronne w zakresie AI, ale kosztem etycznych zabezpieczeń.
Q Co CNBC doniosło o sporze między Pentagonem a Anthropic?
A CNBC nie jest bezpośrednio wymieniane w dostępnych raportach na temat tego sporu; informacje pochodzą głównie od serwisów Axios i Hindustan Times. Axios szczegółowo opisał bliską decyzji postawę sekretarza obrony Pete'a Hegsetha o zerwaniu więzi z Anthropic z powodu ograniczeń w użytkowaniu Claude'a, cytując urzędników Pentagonu na temat oznaczenia firmy jako zagrożenia dla łańcucha dostaw oraz frustracji po miesiącach rozmów. Hindustan Times powtórzył te doniesienia, podkreślając zabezpieczenia Anthropic przeciwko inwigilacji i broni autonomicznej.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!