Waszyngton łamie własny zakaz AI, by chronić sieć energetyczną

Technologie
Washington Breaks Its Own AI Ban to Secure the Grid
Mimo zakazu Pentagonu dotyczącego oprogramowania Anthropic, Biały Dom przyspiesza wdrożenie zmodyfikowanej wersji modelu „Mythos”, aby chronić infrastrukturę krytyczną przed atakami typu zero-day.

Faktura wpłynęła w marcu: 130 000 dolarów za usługi Briana Ballarda. W szerokiej perspektywie waszyngtońskiego lobbingu to błąd zaokrąglenia, ale klientem była firma Anthropic, a celem kręgi zbliżone do administracji Trumpa. Dla firmy, którą Pentagon niedawno określił mianem „ryzyka dla łańcucha dostaw”, inwestycja ta była czymś więcej niż tylko pozycją w budżecie; była walką o przetrwanie. W ciągu kilku tygodni rozpoczęły się tajne spotkania. 18 kwietnia dyrektor generalny Anthropic, Dario Amodei, został wezwany do Białego Domu nie po to, by rozmawiać o zakazie, lecz by negocjować wdrożenie. Przedmiotowy produkt, zaawansowany model znany jako Claude Mythos, stał się zbyt niebezpieczny, by udostępnić go publicznie, i zbyt potężny, by rząd federalny mógł go ignorować.

Sytuacja ta ujawnia pogłębiający się rozłam w amerykańskiej polityce technologicznej. Z jednej strony Departament Obrony utrzymuje formalny zakaz korzystania z oprogramowania Anthropic w swoich procesach roboczych, powołując się na obawy dotyczące zakresu wykorzystania oraz odmowę firmy dotyczącą zgody na tworzenie w pełni autonomicznej broni. Z drugiej strony Biały Dom obecnie pomija własną jastrzębią retorykę, by zintegrować „zmodyfikowaną wersję” Mythosa z Departamentem Energii, Departamentem Skarbu oraz Departamentem Bezpieczeństwa Krajowego. To klasyczny waszyngtoński paradoks: technologia uznana za zagrożenie dla wojska stała się główną tarczą dla państwa cywilnego.

Paradoks Glasswing

Aby zrozumieć, dlaczego Biały Dom jest gotów wycofać się ze swoich słów, należy przyjrzeć się projektowi Glasswing. Kiedy na początku kwietnia Anthropic uruchomiło tę inicjatywę, nie promowało lepszego chatbota do pisania e-maili. Przedstawiono system zdolny do identyfikacji tysięcy luk typu zero-day w kodzie infrastruktury krytycznej. W testach wewnętrznych Mythos wykazał niesamowitą zdolność do poruszania się po złożonych repozytoriach oprogramowania i znajdowania błędów architektonicznych, które spędzają sen z powiek urzędnikom ds. bezpieczeństwa narodowego. Po raz pierwszy szybkość wykrywania luk wyprzedziła ludzką zdolność do ich usuwania.

To, co inżynierowie nazywają kryzysem podwójnego zastosowania. Ta sama logika, która pozwala sztucznej inteligencji zidentyfikować lukę w oprogramowaniu sterującym siecią energetyczną, dostarcza również mapy drogowej do przeprowadzenia katastrofalnego ataku. Anthropic utrzymało Mythosa w ramach „Gated Research Preview”, ograniczając dostęp do garstki partnerów, takich jak Amazon AWS, Microsoft i Palo Alto Networks. Biały Dom zdał sobie jednak sprawę, że jeśli takie możliwości istnieją w sektorze prywatnym, państwo nie może pozwolić sobie na to, by jako ostatnie z nich korzystać. Popyt na Mythosa w agencjach federalnych nie pochodzi od pracowników biurowych; pochodzi od osób odpowiedzialnych za fizyczną integralność sieci elektrycznej i systemu finansowego.

Systemowe ryzyko dla księgi finansowej

Niepokój związany z Mythosem osiągnął apogeum na początku kwietnia, gdy sekretarz skarbu Scott Bessent oraz przewodniczący Rezerwy Federalnej Jerome Powell wezwali do Waszyngtonu dyrektorów generalnych największych banków z Wall Street. Nie było to rutynowe spotkanie. Dyskusja koncentrowała się na potencjale Mythosa, lub odpowiednika konkurencji, do wywołania systemowych zakłóceń finansowych. Stowarzyszenie SIFMA (Securities Industry and Financial Markets Association) ostrzegło w liście otwartym, że złośliwe wykorzystanie takich modeli może prowadzić do kradzieży tożsamości na wielką skalę lub, co ważniejsze, do wykorzystania luk w handlu wysokiej częstotliwości, co mogłoby doprowadzić do załamania rynków w ciągu milisekund.

Z technicznego punktu widzenia ryzykiem nie jest to, że sztuczna inteligencja „zdecyduje” się zaatakować bank. Ryzykiem jest erozja bufora czasowego, który obecnie chroni nowoczesne systemy. Tradycyjnie cyberbezpieczeństwo jest grą w kotka i myszkę, w której obrońca ma niewielką przewagę własnego boiska. Mythos zmienia tę dynamikę, automatyzując fazę „poszukiwania” ataku. Kiedy model potrafi przeskanować miliony linii kodu i w kilka sekund zidentyfikować ścieżkę ataku, linia obrony, która opiera się na oknie czasowym między wykryciem a ujawnieniem, faktycznie znika. Dlatego też Powell i Bessent traktują model nie jako narzędzie programistyczne, lecz jako zmienną makroekonomiczną.

„Zmodyfikowana” kaftan bezpieczeństwa

Rozwiązaniem Białego Domu na zakaz Pentagonu jest stworzenie „zmodyfikowanej wersji” Mythosa. W języku Brukseli czy Berlina postrzegano by to jako desperacką próbę osiągnięcia suwerenności technologicznej poprzez administracyjne manipulacje. W Waszyngtonie jest to sposób na obejście czarnych list zamówień publicznych. Modyfikacja ta jest dwutorowa. Technicznie wiąże się ona z twardym kodowaniem ograniczeń możliwości modelu do generowania kodu umożliwiającego przeprowadzenie exploita, co w efekcie czyni go „konsultantem ds. bezpieczeństwa tylko do odczytu”. Instytucjonalnie zamyka ona model w zamkniętym obiegu federalnym, zarządzanym przez Biuro Zarządzania i Budżetu (OMB).

Federalny dyrektor ds. informatyki (CIO) Gregory Barbaccia rozpoczął już proces wyznaczania granic. Wewnętrzne memorandum wskazuje, że agencje takie jak Departament Sprawiedliwości i Departament Stanu otrzymają dostęp, ale tylko w ramach systemu wymagającego wyczerpującego logowania każdego zapytania. Daleko temu do otwartych asystentów AI oferowanych opinii publicznej. Rząd w zasadzie buduje cyfrową klatkę wokół modelu, mając nadzieję, że wykorzysta jego diagnostyczną genialność, jednocześnie neutralizując jego potencjał ofensywny. Czy taka klatka rzeczywiście może utrzymać model o wyłaniających się zdolnościach, pozostaje przedmiotem intensywnej debaty wśród nielicznych badaczy, którzy widzieli pełne wagi modelu Mythos.

Europejska perspektywa: Suwerenność kontra bezpieczeństwo

Dla obserwatorów w Unii Europejskiej saga Mythosa jest przestrogą dotyczącą rzeczywistości aktu o sztucznej inteligencji (AI Act) w zderzeniu z wymogami władzy w świecie rzeczywistym. Podczas gdy UE koncentruje się na klasyfikacji systemów „wysokiego ryzyka” i wymogach przejrzystości, Stany Zjednoczone zmierzają w stronę modelu rozwoju AI przejętego przez państwo. „Modyfikując” i nacjonalizując wdrażanie modeli sektora prywatnego, Waszyngton tworzy precedens, w którym najpotężniejsze technologie omijają standardową kontrolę regulacyjną pod parasolem bezpieczeństwa narodowego.

Stwarza to znaczący ból głowy dla niemieckiej i francuskiej polityki przemysłowej. Jeśli rząd USA integruje te zdolności w swoich departamentach Skarbu i Energii, europejskie odpowiedniki znajdą się w strukturalnej niekorzystnej sytuacji, o ile nie będą w stanie opracować równoważnych, suwerennych modeli. Problemem jest to, że europejski krajobraz półprzewodników i AI pozostaje rozdrobniony. Podczas gdy firmy takie jak Mistral we Francji czy Aleph Alpha w Niemczech dążą do przejrzystości i bezpieczeństwa, konkurują one z amerykańskimi podmiotami, które w istocie stały się przedłużeniem aparatu bezpieczeństwa państwa. „Zmodyfikowana wersja” Mythosa jest sygnałem, że era sztucznej inteligencji jako produktu SaaS ogólnego przeznaczenia kończy się dla sektorów krytycznych. Staje się ona substancją kontrolowaną.

Zamówienia publiczne jako broń

Konflikt między Pentagonem a Białym Domem podkreśla również porażkę w sposobie, w jaki kompleks wojskowo-przemysłowy obchodzi się z nowoczesnym oprogramowaniem. Odmowa Pentagonu wobec korzystania z usług Anthropic wynika z chęci pełnej kontroli — a konkretnie z prawa do wykorzystywania modeli w autonomicznych systemach uzbrojenia. Odmowa Anthropic często przedstawiana jest jako stanowisko etyczne, ale jest to również pragmatyczna decyzja biznesowa: bycie etykietowanym jako firma zajmująca się „technologią śmierci” zrazi partnerów komercyjnych, takich jak Amazon i Google, którzy zapewniają ogromną moc obliczeniową niezbędną do trenowania modeli takich jak Mythos.

Podczas gdy OMB przygotowuje się do udostępnienia dostępu do Mythosa w „nadchodzących tygodniach”, uwaga przeniesie się z dramatu zakazu na realia wdrożenia. Rząd stawia zakład, że uda mu się oswoić technologię, która została zaprojektowana jako destrukcyjna. Historia sugeruje, że biurokracja rzadko wyprzedza kod, który próbuje regulować. Biały Dom zdecydował, że ryzyko korzystania z Mythosa jest wysokie, ale ryzyko niekorzystania z niego jest jeszcze wyższe. To rodzaj postępu, który nie mieści się w prezentacji, i rzeczywistość, z którą Bruksela będzie musiała się w końcu zmierzyć, prawdopodobnie po tym, jak pierwsza luka typu zero-day zostanie odkryta przez sztuczną inteligencję, której Pentagon technicznie nie posiada.

Waszyngton zaakceptował rzeczywistość, w której możliwości te nieuchronnie przenikną do globalnej infrastruktury. Rywalizacja przesunęła się z prewencji na oswajanie. Rząd USA ma model; teraz musi tylko ustalić, który departament zachowa klucze.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Dlaczego Pentagon początkowo zabronił używania oprogramowania Anthropic w procesach wojskowych?
A Departament Obrony umieścił Anthropic na czarnej liście, powołując się na ryzyko związane z łańcuchem dostaw oraz obawy dotyczące granic wykorzystania oprogramowania. Głównym czynnikiem wykluczenia była odmowa firmy na rozwój w pełni autonomicznej broni. Ten formalny zakaz spowodował podział między zamówieniami wojskowymi a potrzebami agencji cywilnych, ponieważ Pentagon przedłożył granice etyczne i bezpieczeństwa nad zaawansowane możliwości diagnostyczne modelu.
Q Co sprawia, że model Claude Mythos jest wyjątkowo niebezpieczny dla infrastruktury krytycznej?
A Claude Mythos to technologia podwójnego zastosowania, zdolna do identyfikowania tysięcy luk typu zero-day w kodzie oprogramowania w tempie przewyższającym możliwości naprawcze ludzi. Choć może służyć do zabezpieczania sieci energetycznych i systemów finansowych, ta sama logika stanowi plan katastrofalnych ataków. Automatyzując fazę wyszukiwania w łańcuchu eksploatacji, model skutecznie eliminuje tradycyjny bufor czasowy, który pozwala cyberobrońcom reagować na zagrożenia.
Q W jaki sposób Biały Dom modyfikuje Mythos na potrzeby agencji federalnych?
A Rząd federalny wdraża ograniczoną wersję modelu, która pełni funkcję konsultanta ds. bezpieczeństwa w trybie tylko do odczytu. Ta modyfikacja obejmuje twardo zakodowane bariery techniczne, które uniemożliwiają sztucznej inteligencji generowanie kodu podatnego na wykorzystanie. Ponadto system jest izolowany w ramach zamkniętego obwodu federalnego zarządzanego przez Biuro Zarządzania i Budżetu, co wymaga szczegółowego rejestrowania każdego zapytania w celu utrzymania ścisłej kontroli instytucjonalnej nad wyłaniającymi się możliwościami modelu.
Q Na jakie luki w systemie finansowym zwrócili uwagę urzędnicy federalni w kontekście zaawansowanej sztucznej inteligencji?
A Przedstawiciele Departamentu Skarbu i Rezerwy Federalnej ostrzegli, że modele takie jak Mythos mogą wywołać niestabilność systemową poprzez wykorzystywanie luk w handlu wysokiej częstotliwości w celu załamania rynków w ciągu milisekund. Istnieją również poważne obawy dotyczące kradzieży tożsamości na dużą skalę oraz automatyzacji wyrafinowanych oszustw finansowych. Ponieważ sztuczna inteligencja potrafi w kilka sekund przeskanować miliony linii kodu w poszukiwaniu błędów, jest traktowana jako zmienna makroekonomiczna zagrażająca fizycznej integralności globalnego systemu księgowego.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!