Pentagon grozi zerwaniem współpracy, gdy rozmowy z Anthropic utknęły w martwym punkcie
W tym tygodniu Pentagon zagroził zerwaniem współpracy z Anthropic, zgodnie z doniesieniami, które pojawiły się 16 lutego 2026 r., w związku z naciskami Departamentu Obrony USA na firmę, aby poluzowała ograniczenia dotyczące wykorzystania jej dużych modeli językowych przez wojsko. Spór – o którym poinformowało CNBC obok wcześniejszych doniesień Reuters i Axios – koncentruje się na tym, czy komercyjne firmy zajmujące się AI pozwolą na wykorzystanie swoich systemów do celów, które Pentagon określa jako „wszelkie zgodne z prawem cele”, w tym rozwój broni, zbieranie danych wywiadowczych i operacje na polu bitwy. Anthropic twierdzi, że nie ustępuje w kwestii konkretnych ograniczeń bezpieczeństwa, takich jak ścisłe limity dotyczące w pełni autonomicznej broni i masowej inwigilacji krajowej, a spór zaostrzył się do gróźb zerwania relacji.
Pentagon grozi odcięciem: punkty zapalne natury prawnej i kontraktowej
Sercem konfliktu jest język prawny i kontraktowy. Pentagon chce dostępu do modeli w sieciach niejawnych oraz szerszych sformułowań, które pozwoliłyby na ich użycie w szeregu misji wojskowych; firmy zazwyczaj zapewniały dostęp pod warunkiem zachowania zabezpieczeń na poziomie modelu i ograniczeń wynikających z polityki firmy. Dla Pentagonu fraza „wszelkie zgodne z prawem cele” to pojedynczy termin kontraktowy, który zmniejszyłby niejednoznaczność dotyczącą dozwolonego użycia wojskowego. Dla firm takich jak Anthropic, OpenAI, Google i xAI, zaakceptowanie tego sformułowania grozi osłabieniem wewnętrznych barier bezpieczeństwa – zarówno technicznych mechanizmów kontrolnych wbudowanych w modele, jak i zobowiązań wynikających z polityki korporacyjnej, mających na celu ograniczenie niewłaściwego użycia.
Negocjacje dotyczą również szczegółów technicznych: sposobu wdrażania modeli w sieciach niejawnych, tego, czy filtry treści i rejestrowanie użycia pozostaną aktywne, oraz kto ponosi odpowiedzialność, jeśli system oparty na AI wygeneruje szkodliwe wyniki. Pentagon sygnalizuje frustrację po miesiącach rozmów; dążenie do usunięcia lub poluzowania ograniczeń odzwierciedla operacyjną chęć korzystania z najbardziej wydajnych systemów dostępnych w środowiskach konfliktowych, podczas gdy firmy obawiają się odpowiedzialności prawnej, ryzyka wizerunkowego i szerszej etyki zastosowań wojskowych.
Jak zareagowało Anthropic i inni dostawcy
Anthropic publicznie oświadczyło, że wczesne rozmowy z rządem USA koncentrowały się na kwestiach polityki użytkowania i wyraźnych granicach – przede wszystkim na zakazie stosowania w pełni autonomicznej broni i ograniczeniach dotyczących masowej inwigilacji krajowej – a nie na zatwierdzaniu konkretnych operacji. Rzecznik firmy powiedział dziennikarzom, że nie omawiano z Pentagonem wykorzystania modelu Claude do konkretnych, taktycznych operacji. Oświadczenie to sąsiaduje z doniesieniami, że Claude został użyty w co najmniej jednej głośnej operacji za pośrednictwem partnera: Wall Street Journal poinformował, że Claude został wdrożony przez Palantir w operacji mającej na celu schwytanie byłego prezydenta Wenezueli, co pokazuje, jak integracje partnerskie komplikują proste charakterystyki powściągliwości korporacyjnej.
Inne duże firmy AI wymienione w doniesieniach – OpenAI, Google i xAI – również znajdują się pod presją Pentagonu, by rozszerzyć dostęp. Reuters i CNBC opisały szerokie prośby Departamentu Obrony (DoD) o udostępnienie modeli w sieciach niejawnych bez wielu standardowych ograniczeń, które firmy stosują wobec użytkowników cywilnych. Firmy różnie podchodzą do tych próśb, balansując między możliwościami kontraktowymi i poświadczeniami bezpieczeństwa a polityką wewnętrzną i zewnętrzną kontrolą.
Dlaczego Pentagon naciska i co chce osiągnąć
Jednak naciskanie na ogólny, otwarty język kontraktowy – „wszelkie zgodne z prawem cele” – budzi pytania o to, jakie zabezpieczenia pozostaną w mocy, gdy modele będą używane w kontekście kinetycznym lub tajnym. Zgodne z prawem użytkowanie to szeroki standard prawny, który nadal wymaga wdrożenia kontroli w celu uniknięcia niezamierzonej eskalacji, szkód wśród ludności cywilnej lub naruszeń prawa krajowego i międzynarodowego. Te wymagania operacyjne są źródłem obecnego napięcia.
Zagrożone zabezpieczenia techniczne i obawy Pentagonu
Firmy budują zabezpieczenia w modelach na dwóch płaszczyznach: kontroli na poziomie modelu (dostrajanie, warstwy bezpieczeństwa, testy red-teaming i filtry treści) oraz kontroli na poziomie polityki (warunki świadczenia usług i kontraktowe ograniczenia użytkowania). Dążenie Pentagonu do ograniczenia lub obejścia restrykcji zmieniłoby sposób działania tych mechanizmów w praktyce. Na przykład, umieszczenie modelu w sieci niejawnej może usunąć część telemetrii i logowania ze względów bezpieczeństwa, ale może również podważyć zdolność firmy do monitorowania niewłaściwego użycia i naprawiania problematycznych zachowań.
Według doniesień Pentagon jest sfrustrowany faktem, że Anthropic opiera się propozycjom złagodzenia limitów w scenariuszach, które firma uznaje za obarczone wysokim ryzykiem – takich jak sterowanie w pełni autonomiczną bronią i masowa inwigilacja krajowa. Są to obszary, w których wiele firm AI, nie tylko Anthropic, broniło surowych zakazów dotyczących autonomicznego podejmowania decyzji, które mogłyby prowadzić do skutków śmiertelnych bez nadzoru człowieka.
Jak odcięcie dostępu może wpłynąć na bezpieczeństwo
Jeśli Pentagon zrealizuje groźbę i zerwie więzi z Anthropic, natychmiastowym skutkiem będzie węższy zestaw dostawców dostępnych dla amerykańskiej społeczności obronnej. To prawdopodobnie przyspieszy wewnętrzne wysiłki DoD zmierzające do budowy lub zakontraktowania dedykowanych modeli, zwiększy zależność od firm, które godzą się na szersze warunki użytkowania, lub zachęci do partnerstwa z zagranicznymi dostawcami – a każdy z tych wyników niesie ze sobą własne kompromisy w zakresie bezpieczeństwa i nadzoru. Odcięcie może również zmusić agencje do zaakceptowania rozwiązań z mniejszą liczbą zabezpieczeń po stronie dostawcy, zwiększając ryzyko niewłaściwego użycia lub niezamierzonych konsekwencji.
Z drugiej strony firmy, które utrzymują rygorystyczne ograniczenia bezpieczeństwa, argumentują, że te bariery zmniejszają ryzyko następcze, zapobiegają rozszerzaniu zakresu misji (tzw. mission creep) i zachowują zaufanie publiczne. Patowa sytuacja ukazuje głębszy wybór strategiczny: czy podmioty odpowiedzialne za bezpieczeństwo narodowe tolerują korporacyjne bariery ograniczające niektóre zastosowania wojskowe, czy też upierają się przy nieograniczonym dostępie i przyjmują nowe obowiązki nadzorcze w ramach systemów rządowych.
Wcześniejsze precedensy i szerszy kontekst polityczny
DoD już wcześniej finansował badania nad AI i tworzył partnerstwa z przemysłem, ale obecny moment wyróżnia się skalą i dojrzałością komercyjnie dostępnych dużych modeli językowych. Wcześniejsza współpraca obejmowała warunkowe granty i projekty pilotażowe wymagające konkretnych zabezpieczeń; obecny spór dotyczy szerokich warunków operacyjnych, a nie finansowania pilotażowego. Groźba Pentagonu dotycząca odcięcia dostawcy z powodu nieporozumień co do polityki jest eskalacją widoczną dla opinii publicznej i sygnalizuje trudne negocjacje przed wszystkimi głównymi dostawcami zaawansowanych narzędzi AI.
W grę wchodzą również naciski polityczne. Głos zabrały osoby publiczne i konkurenci – przede wszystkim Elon Musk, który niedawno zaatakował modele Anthropic w publicznych komentarzach – co podkreśla, że debaty na temat uprzedzeń, bezpieczeństwa i właściwej roli AI w kontekście wojskowym są teraz częścią głośnej debaty publicznej, a nie tylko zamkniętych sporów dotyczących zamówień.
Negocjacje i kolejne kroki
Obie strony mają powody, by unikać całkowitego zerwania. Pentagon potrzebuje najnowocześniejszych możliwości; firmy chcą utrzymać kontrakty rządowe i uniknąć wykluczenia z istotnych zamówień. Należy spodziewać się intensywnych, kuluarowych negocjacji dotyczących języka kontraktów, technicznych środków izolacji (na przykład wdrożeń typu air-gap lub offsetowych), ulepszonych procedur audytu i nadzoru, a być może nowych konstrukcji prawnych wyjaśniających odpowiedzialność i akceptowalne użycie w kontekście niejawnym.
Dla szerszej opinii publicznej i decydentów spór ten rodzi znane pytania o kontrolę eksportu, nadzór nad technologiami podwójnego zastosowania oraz o to, czy wymagane są nowe modele zarządzania dla AI stosowanej w bezpieczeństwie narodowym. Niezależnie od bezpośredniego wyniku, negocjacje te ustanowią precedensy dla sposobu, w jaki rządy i prywatni deweloperzy AI dzielą się wrażliwymi możliwościami, starając się jednocześnie zachować nienaruszone bariery bezpieczeństwa.
Źródła
- Oświadczenia publiczne i materiały dot. zamówień Departamentu Obrony USA (Pentagonu)
- Materiały prasowe i oświadczenia firmy Anthropic
- Publiczne ujawnienia Palantir Technologies dotyczące wdrożeń partnerskich
Comments
No comments yet. Be the first!