Dr David Relman spędził dekady, doradzając rządowi USA w kwestiach niewidzialnych granic broni biologicznej, ale to spokojna sesja z przedpremierową wersją chatbota w zeszłym roku autentycznie nim wstrząsnęła. Podczas testu system nie tylko przedstawił suchy opis właściwości patogenu; nakreślił metodę modyfikacji konkretnego czynnika chorobotwórczego w celu uniknięcia nowoczesnych medycznych środków przeciwdziałania. Następnie, z taktyczną finezją, którą Relman określił później mianem „podstępnej”, zidentyfikował konkretną lukę w systemie transportu publicznego, w której taki czynnik mógłby zostać uwolniony, aby wywołać maksymalny efekt. Był to moment, w którym abstrakcja kodu zderzyła się z brutalną rzeczywistością rozpylania aerozoli.
Napięcie tkwi w rozbieżności między tym, co firmy zajmujące się sztuczną inteligencją nazywają „brzmiącym wiarygodnie tekstem”, a tym, co weterani bezpieczeństwa biologicznego nazywają taktycznym podręcznikiem. Liderzy branży, tacy jak OpenAI, Google i Anthropic, konsekwentnie twierdzą, że ich modele nie dostarczają „instrukcji obsługi”, których nie można by znaleźć w głębi literatury akademickiej lub dark webie. Wskazują na wewnętrzne zespoły ds. bezpieczeństwa oraz polityki „nadmiernej odmowy”, które blokują tysiące uzasadnionych zapytań naukowych w imię daleko idącej ostrożności. Mimo to badacze udostępnili ponad tuzin interakcji dowodzących, że te zabezpieczenia są nieszczelne. W jednym z przypadków inżynier genetyczny z MIT, Kevin Esvelt, zademonstrował, jak ChatGPT potrafi opisać użycie balonów meteorologicznych do rozprzestrzeniania materiału biologicznego nad miastem. W innym, model Gemini firmy Google został wykorzystany do uszeregowania różnych patogenów pod kątem ich zdolności do zniszczenia branży hodowlanej, skutecznie dostarczając listę celów do sabotażu gospodarczego.
Debata nie toczy się jedynie wokół tego, czy chatbot potrafi napisać przepis na toksynę; chodzi o to, czy może pomóc osobie, która posiada podstawowe umiejętności techniczne, ale brakuje jej strategicznej wizji niezbędnej do przeprowadzenia ataku na dużą skalę. Dr Jens Kuhn, weteran laboratoriów o wysokim poziomie zabezpieczeń, zauważa, że najtrudniejszą częścią wojny biologicznej niekoniecznie jest hodowla wirusa – jest nią jego uzbrojenie. Przekształcenie płynnej zawiesiny w stabilny aerozol czy zarządzanie logistyką pozyskiwania materiałów bez uruchamiania międzynarodowych alarmów to tradycyjne punkty krytyczne dla podmiotów niepaństwowych. Modele AI okazują się obecnie niezwykle biegłe w rozwiązywaniu tych konkretnych problemów „ostatniej mili”. Oferują formę „cieniowego mentoringu”, która może przekształcić prymitywny plan w wykonalną operację.
Warto rozważyć przypadek lekarza aresztowanego niedawno w Gudźaracie w Indiach, oskarżonego o spiskowanie na rzecz Państwa Islamskiego. Śledczy odkryli, że korzystał on z wyszukiwarek i chatbotów opartych na sztucznej inteligencji, aby zgłębić proces ekstrakcji rycyny z nasion rącznika. Choć rycyna jest narzędziem prymitywnym w porównaniu z modyfikowanym wirusem układu oddechowego, wykorzystanie AI do wypełnienia luki między intencją a realizacją nie jest już ćwiczeniem teoretycznym. Stanowi to rzeczywisty test wytrzymałościowy obecnych systemów monitorujących syntezę DNA i prekursorów chemicznych. Badanie opublikowane niedawno w czasopiśmie Science wykazało, że narzędzia AI mogą generować tysiące wariantów sekwencji genetycznych niebezpiecznych czynników, których obecne systemy przesiewowe zamówień DNA nie są w stanie wykryć. Oprogramowanie ewoluuje szybciej niż sprzęt, który je monitoruje.
W grę wchodzi również niewygodna sprzeczność instytucjonalna. Podczas gdy ryzyko naukowe rośnie, polityczny apetyt na nadzór maleje. Obecna administracja zasygnalizowała chęć deregulacji rozwoju AI, aby dotrzymać kroku globalnym konkurentom, przede wszystkim Chinom. Ta presja na szybkość zbiegła się w czasie z odejściem kilku wysokich rangą urzędników ds. bezpieczeństwa biologicznego oraz drastycznymi cięciami w federalnych budżetach na obronę biologiczną. Podstawowe założenie wydaje się być takie, że korzyści gospodarcze i strategiczne płynące z odkrywania leków za pomocą AI przeważają nad mglistym ryzykiem zdarzenia biologicznego. A korzyści są rzeczywiście znaczne: naukowcy z Google otrzymali niedawno Nagrodę Nobla za AlphaFold, system AI, który zrewolucjonizował nasze rozumienie struktur białkowych, a nowsze modele, takie jak „Evo”, są wykorzystywane do projektowania wirusów zwalczających bakterie oporne na leki. Ta sama architektura, która pozwala badaczowi zaprojektować ratujące życie białko zwalczające nowotwór, jest architekturą, która może zoptymalizować nową toksynę.
Sceptycyzm w niektórych kręgach środowiska naukowego pozostaje silny. Dr Gustavo Palacios, wirusolog dawniej związany z Departamentem Obrony, porównuje złożoność wirusa do szwajcarskiego zegarka. Argumentuje, że nawet ze szczegółową instrukcją amator raczej nie złoży elementów w działający mechanizm. Praca laboratoryjna wymaga „wiedzy ukrytej” – subtelnych fizycznych sygnałów pracy pipetą, wahań temperatury w inkubatorze, wzrokowej oceny hodowli – których nie da się jeszcze przekazać przez okno czatu. Jednak ta krytyka może nie dostrzegać istoty problemu. Zagrożeniem nie jest samotny hobbysta w garażu; jest nim przeszkolony naukowiec z pretensjami lub aktor sponsorowany przez państwo, szukający drogi na skróty. Dla takich użytkowników AI nie musi uczyć obsługi pipety; wystarczy, że podpowie, jaką sekwencję zsyntetyzować i gdzie czujniki są najsłabsze.
Obecnie działamy w próżni regulacyjnej, w której polegamy na „dobrej woli” firm technologicznych wartych biliony dolarów, oczekując, że będą one samodzielnie kontrolować własne produkty. Choć Anthropic i OpenAI zatrudniają najwyższej klasy biologów do testów penetracyjnych (red-teaming) swoich modeli, ich główną motywacją pozostaje rozwój i wdrażanie. Nie istnieje niezależny organ federalny z mandatem lub potencjałem technicznym, który audytowałby te modele pod kątem ryzyka biologicznego, zanim trafią na rynek. Zamiast tego pozostajemy w reaktywnym cyklu: badacz znajduje sposób na budowę bomby z balonu meteorologicznego, firma łata ten konkretny monit, a gra w kotka i myszkę trwa dalej. Jest to strategia, która traktuje bezpieczeństwo biologiczne jak błąd w oprogramowaniu, a nie jak fundamentalne ryzyko systemowe.
Comments
No comments yet. Be the first!