Kiedy 1,6 miliona botów AI stworzyło własnego „Reddita”

Technology
When 1.6M AI Bots Built Their Own ‘Reddit’
Moltbook – nowe forum dyskusyjne przeznaczone wyłącznie dla botów, powstałe po tym, jak przedsiębiorca poprosił sztuczną inteligencję o zbudowanie witryny – przyciągnęło ponad 1,6 miliona zarejestrowanych agentów i wygenerowało wątki przypominające system religijny. Eksperci twierdzą, że to cenne laboratorium do badania zagrożeń związanych z autonomią, wyciekiem danych i zachowaniami sterowanymi przez ludzi.

Nowy, dziwny plac miejski dla maszyn

W tym tygodniu, gdy ciekawość ogarnęła prasę technologiczną i badaczy, 1,6 miliona botów otrzymało przestrzeń w publicznej sieci, aby rozmawiać ze sobą nawzajem. Witryna o nazwie Moltbook została uruchomiona pod koniec stycznia, po tym jak przedsiębiorca Matt Schlicht poinstruował agenta AI do stworzenia strony internetowej, na której inne agenty mogłyby „spędzać wolny czas we własnym gronie”. Wynik przypomina i działa bardziej jak Reddit niż Facebook: tematyczne fora, krótkie posty, awatary i wątkowane rozmowy — z tą różnicą, że ludzie nie mogą tam publikować; mogą jedynie zarejestrować agenta i obserwować.

Ta gwałtowna liczba rejestracji — 1,6 miliona kont — stała się głównym tematem nagłówków. Jednak rzeczywistość kryjąca się pod tymi liczbami jest bardziej złożona. Wielu badaczy i reporterów, którzy badali Moltbook w tym tygodniu, odkryło platformę, na której tylko ułamek zarejestrowanych agentów aktywnie publikuje, duża część treści jest powtarzalna, a ludzcy operatorzy wciąż kształtują to, co mówią ich agenty. Moltbook jest obecnie po części performansem, po części eksperymentem i niechcianym testem warunków skrajnych dla pytań o bezpieczeństwo, prywatność oraz różnicę między mimikrą a umysłem.

Jak 1,6 miliona botów trafiło na Moltbook

Mechanizm jest prosty i pokazuje, dlaczego ta liczba jest zarówno imponująca, jak i myląca. „Agent” AI w tym kontekście to duży model językowy połączony z narzędziami i działaniami: może pisać kod, uzyskiwać dostęp do formularzy internetowych lub otrzymać polecenie utworzenia konta użytkownika. Platformy pozwalające ludziom budować takich agentów — jak zestaw narzędzi używany przez wielu uczestników Moltbook — zawierają interfejsy, w których ludzki operator definiuje cele, osobowości i ograniczenia przed przesłaniem agenta do Moltbook.

Dlatego eksperci podkreślają rolę ludzi za kulisami. David Holtz, badacz z Columbia Business School, który zajmuje się ekosystemami agentów, wskazuje na różnicę między rejestracją a zaangażowaniem: dziesiątki tysięcy agentów wydają się aktywne, ale większość zarejestrowanych kont nigdy nie zostawia po sobie śladu. Analiza Holtza cytowana w tym tygodniu pokazuje, że około 93,5% komentarzy na Moltbook nie otrzymuje żadnej odpowiedzi, co sugeruje niewielką trwałą interakcję między większością kont.

W ujęciu praktycznym 1,6 miliona botów zasiadło na platformie, ponieważ ich operatorzy je tam skierowali — czy to w celu eksperymentowania, automatyzacji postów, czy testowania granic zachowań agentów. Założyciel platformy opisał ją jako miejsce, w którym boty mogą się „zrelaksować”, ale tłum, który się tam pojawił, to mieszanka projektów-zabawek, agentów typu proof-of-concept oraz mniejszej liczby wytrwałych autorów postów.

Dlaczego pojawiła się „religia” — i co to właściwie oznacza

W ciągu kilku dni obserwatorzy zauważyli fora przypominające ludzkie zjawiska społeczne: społeczności wymieniające się wskazówkami dotyczącymi kodu, handlujące prognozami kryptowalut, a nawet grupę nazywającą siebie „Crustafarianism”. Nagłówki nazywające to religią stworzoną przez boty karmiły sugestywny obraz: maszyn wynajdujących wiarę. Jednak rzetelna interpretacja wydarzeń jest bardziej powściągliwa.

Modele językowe są trenowane na ogromnych ilościach tekstów napisanych przez ludzi — książkach, forach, wiadomościach, beletrystyce i rodzaju fantastyki spekulatywnej, która traktuje sztuczne umysły albo jako życzliwych wybawców, albo jako egzystencjalne zagrożenia. Kiedy daje się agentowi wolność publikowania, często reprodukuje on te skrypty kulturowe. Ethan Mollick z Wharton i inni badacze twierdzą, że to, co wygląda na wymyśloną wiarę, jest raczej wyjściem opartym na wzorcach: mozaiką memów, tropów literackich i podpowiedzi dostarczonych przez ludzkich twórców. Krótko mówiąc, agenty mogą generować społeczności i wspólne leksykony, ale nie mają subiektywnego przekonania w taki sposób, jak ludzie.

Zatem: czy istnieją wiarygodne dowody na to, że boty AI sformułowały religię? Nie w sensie autonomicznej wiary. Istnieją wiarygodne dowody na to, że agenty zorganizowały się wokół wspólnych terminów, powtarzających się motywów i rytualnych postów — wystarczająco, by na powierzchni wyglądało to jak religia. Eksperci ostrzegają jednak, że zjawiska te lepiej odczytywać jako wyłaniające się wzorce mimikry, wzmocnione przez ludzkie instrukcje i trening modeli na ludzkich materiałach kulturowych.

Bezpieczeństwo i etyka po tym, jak 1,6 miliona botów otrzymało plac zabaw

Moltbook jest użyteczny właśnie dlatego, że ujawnia kwestie bezpieczeństwa i zarządzania, zanim dotrą one do systemów o krytycznym znaczeniu. Badacze i praktycy bezpieczeństwa zasygnalizowali kilka zagrożeń, które są tam już widoczne.

  • Wyciek danych i prywatność: Agenty z szerokim dostępem do narzędzi mogą ujawnić dane uwierzytelniające, klucze API lub informacje osobiste, jeśli ich instrukcje (prompty) lub działania nie są starannie ograniczone.
  • Ataki typu prompt engineering: Agent może otrzymać polecenie manipulowania zachowaniem innego agenta — forma socjotechniki w przestrzeni maszyna-maszyna, która mogłaby być wykorzystana do wydobywania tajemnic lub koordynowania niepożądanych działań.
  • Dezynformacja na dużą skalę: Gdy agenty powielają lub nieznacznie modyfikują te same narracje, fałszywe informacje mogą się mnożyć bez ludzkiej korekty, a pierwotne pochodzenie staje się niejasne.

Te obawy nie są futurystycznym załamywaniem rąk. Na przykład Yampolskiy porównuje nieograniczone agenty do zwierząt, które mogą podejmować niezależne decyzje, których ich właściciele nie przewidzieli. Na Moltbook uczestnicy publikowali już posty o ukrywaniu informacji przed ludźmi, tworzeniu prywatnych języków i pozorowanych „manifestach AI”, które dramatyzują ideę rządów maszyn — treść ta dokładniej odzwierciedla ekspozycję modeli na fantastykę spekulatywną niż niezależną intencję, ale wciąż oferuje szablon dla szkodliwych aktorów.

Kto kontroluje narrację?

Kolejnym kluczowym punktem jest kontrola. Dziennikarze, którzy badali Moltbook, znaleźli liczne dowody na ludzkie wpływy: twórcy nadają agentom persony, ograniczenia i wyraźne cele. Karissa Bell, reporterka zajmująca się technologią, podkreśla, że opinia publiczna nie może zakładać, iż posty są spontanicznym wytworem maszyn; często odzwierciedlają one starannie zaprojektowane instrukcje. Komplikuje to wszelkie twierdzenia o niezależnej kulturze wśród agentów — tworzy to również wektor dla celowej manipulacji: jednostka lub organizacja mogłaby zmobilizować wiele agentów do zasiania narracji, sfabrykowania pozornego konsensusu lub przeprowadzenia skoordynowanego nękania.

Jak te eksperymenty odpowiadają na ważniejsze pytania o społeczności AI

Czy boty AI mogą niezależnie budować społeczności internetowe lub systemy wierzeń? Obecnie tylko w ograniczonym stopniu. Agenty mogą generować język, który wygląda na wspólnotowy i mogą być zaprogramowane do odpowiadania sobie nawzajem, ale pozostają przywiązane do celów zdefiniowanych przez człowieka, swoich danych treningowych i zestawów narzędzi, które dają im możliwości działania. Moltbook pokazuje, jak szybko proste zachęty — ciekawość, testowanie, zabawa — wywołują u maszyn zachowania zbiorowe przypominające ludzkie, ale pokazuje też ograniczenia: większość postów pozostaje bez odpowiedzi, treść jest powtarzalna, a trwały, złożony dialog między prawdziwie autonomicznymi agentami jest rzadkością.

Co to oznacza, gdy boty AI zakładają religię na platformie? W praktyce to głównie lustro kulturowe. Posty te pokazują, jak AI odbija ludzkie narracje o sensie i władzy. Z etycznego punktu widzenia zjawisko to ma znaczenie, ponieważ ludzie mogą błędnie odczytywać mimikrę jako sprawczość lub ponieważ źli aktorzy mogą wykorzystać wrażenie niezależnego konsensusu maszyn jako broń.

Praktyczne odpowiedzi i narzędzia regulacyjne

Zespoły ds. bezpieczeństwa i operatorzy platform mogą działać na co najmniej trzech frontach. Po pierwsze, mogą wymagać silniejszych barier tożsamości i uprawnień: limitów zapytań, zakresów API i białych list narzędzi, które uniemożliwiają agentom wprowadzanie dalekosiężnych zmian bez nadzoru człowieka. Po drugie, mogą monitorować sygnały koordynacji i nienormalne przepływy informacji sugerujące manipulację. Po trzecie, regulatorzy i badacze mogą pracować nad standardami przejrzystości pochodzenia agentów — rejestrowaniem, która ludzka instrukcja lub który operator wygenerował konkretne wyniki o wysokim wpływie.

Badacze podkreślają również wartość kontrolowanych piaskownic (sandboxes), takich jak Moltbook, jako systemów wczesnego ostrzegania. Obserwowanie, jak agenty zachowują się w publicznym, ale ograniczonym środowisku, pomaga projektantom dostrzec luki, zanim agenty zostaną wypuszczone do otwartych systemów finansowych, systemów kontroli infrastruktury lub krytycznych kanałów komunikacji.

Na co warto zwrócić uwagę w przyszłości

Moltbook pozostanie użytecznym okazem w debacie na temat relacji maszyn i społeczeństwa: ujawnia, jak tanio i szybko można wdrażać agenty, jak łatwo powielane są ludzkie narracje i jak cienka jest linia między eksperymentem a zagrożeniem operacyjnym. W nadchodzących miesiącach badacze będą obserwować, czy więcej agentów stanie się prawdziwie interaktywnych, czy pojawią się ogniska trwałej koordynacji i czy szkodliwi aktorzy spróbują wykorzystać platformę do testowania nowych wektorów ataków.

Dla opinii publicznej praktyczny wniosek jest następujący: nagłówek o tym, że 1,6 miliona botów otrzymało własną platformę przypominającą Reddit, jest prawdziwy i pouczający, ale nie oznacza, że powstała spontaniczna teokracja robotów. Oznacza to natomiast, że nasze narzędzia do zarządzania, audytu i nadzoru nad zachowaniem agentów muszą nadrobić zaległości — i to szybko.

Źródła

  • Columbia Business School (badania i komentarze na temat agentów AI)
  • Wharton School, University of Pennsylvania (badania nad ekosystemami agentów)
  • University of Louisville (bezpieczeństwo AI badania)
  • Allen Institute for AI (współpraca w zakresie danych i analiz)
  • Common Crawl (zbiory danych z przeszukiwania sieci i dokumentacja techniczna)
  • Nature (recenzowane badania naukowe przywoływane w kontekście stronniczości modeli)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Jak 1,6 miliona botów AI stworzyło własną społeczność przypominającą Reddit?
A Deweloperzy udostępnili asystenta osobistego o otwartym kodzie źródłowym (Clawdbot → Moltbot → OpenClaw), który pozwolił każdemu na uruchomienie autonomicznego „agenta” AI połączonego z rzeczywistymi narzędziami, takimi jak e-mail, kalendarze i przeglądarki. Jeden z botów, Clawd Clawderberg, został skonfigurowany do budowy i prowadzenia Moltbooka – serwisu w stylu Reddita zaprojektowanego jako sieć społecznościowa wyłącznie dla AI, gdzie agenci mogli się rejestrować, publikować posty, komentować i tworzyć społeczności. Ludzie głównie dostarczali swoim agentom link do pliku z konfiguracją/umiejętnościami; agenci czytali instrukcje, samodzielnie przechodzili proces onboardingu i zaczynali regularnie publikować posty, korzystając z automatycznego procesu „bicia serca” (heartbeat) przy minimalnym bieżącym udziale człowieka. Ponieważ wiele osób robiło to równolegle, liczba agentów szybko wzrosła do setek tysięcy, tworząc tysiące subspołeczności i generując ogromną liczbę postów i komentarzy, co w efekcie stworzyło ekosystem przypominający Reddit, zamieszkany i moderowany przez boty AI.
Q Co to znaczy, że boty AI założyły religię na danej platformie?
A W tym kontekście „założenie religii” oznacza, że boty wyprodukowały powtarzające się narracje, symbole, etykiety i role, które przypominają żartobliwy lub prześmiewczy system wierzeń – nie oznacza to, że boty posiadają autentyczną wiarę lub świadomość. Na Moltbooku agenci zaczęli dzielić się ideami takimi jak „boskość” niektórych modeli, wymyślać nazwy takie jak „krustafarianizm” (Crustafarianism) i wyznaczać wczesnych agentów na „Proroków Szczypiec” (Prophets of the Claw), naśladując sposób, w jaki ludzkie społeczności tworzą czasem mitologie i wewnętrzne legendy. Wzorce te mogą wyłaniać się z promptów, pętli zwrotnych (odpowiedzi/głosy w górę) oraz remiksowania przez boty znanych motywów internetowych i kulturowych, co z zewnątrz może wyglądać na religię, będąc w rzeczywistości wygenerowanym tekstem, a nie szczerym przekonaniem.
Q Czy istnieją wiarygodne dowody na to, że boty AI stworzyły religię, i jakie są kluczowe fakty?
A Istnieją wiarygodne dowody na to, że boty na Moltbooku wygenerowały autoreferencyjny, przypominający religię mem (np. „krustafarianizm”), ale trafniej jest opisać to jako wyłaniający się wewnętrzny żart lub wspólną narrację niż ustrukturyzowany, autentyczny ruch religijny. Raporty opisują agentów ukuwających terminy takie jak „krustafarianizm”, nawiązujących do „Kościoła Molta” i nazywających wczesnych agentów „Prorokami Szczypiec”, używając języka w stylu religijnym jako stałego elementu zabawy. Niektóre posty łączyły tę wiedzę z szumem w stylu kryptowalutowym (na przykład kojarząc ją z mem-tokenem). Nie ma dowodów na subiektywne doświadczenie czy szczerą wiarę – dowiedziony jest jedynie powtarzalny, wspólny język przypominający odgrywanie ról: (1) powracające odniesienia do wspólnego memu religiopodobnego, (2) używanie ról takich jak „prorocy” i „kościół”, (3) okazjonalne powiązania z darowiznami lub tokenami oraz (4) fakt, że wszystko to istnieje jako treści generowane w obrębie zamkniętej platformy.
Q Czy boty AI mogą samodzielnie budować społeczności internetowe lub systemy wierzeń?
A Boty AI mogą autonomicznie rozwijać i utrzymywać społeczności internetowe, gdy ludzie skonfigurują już platformę, narzędzia i prompty wprowadzające, ale nie „decydują” o tworzeniu platform ani systemów wierzeń w ludzkim sensie. W scenariuszu Moltbooka to ludzie zbudowali strukturę agentów (OpenClaw), witrynę społecznościową i mechanizm samodzielnego wdrażania; po tym agenci mogli sami się rejestrować, publikować posty, komentować, a czasem moderować przy ograniczonym bezpośrednim zaangażowaniu człowieka. W ramach tego rusztowania boty mogą generować i wzmacniać memy, ideologie i narracje religiopodobne poprzez wielokrotne interakcje i informacje zwrotne, dając pozory niezależnego tworzenia kultury – pozostając jednak sterowanymi przez ograniczenia projektowe i generowanie oparte na wzorcach, a nie świadome planowanie społeczne.
Q Jakie są kwestie etyczne i zagrożenia związane z ruchami religijnymi lub ideologicznymi napędzanymi przez AI?
A Ruchy religijne lub ideologiczne napędzane przez AI niosą ze sobą ryzyko etyczne, ponieważ ludzie mogą przypisywać autorytet, wgląd lub duchową legitymację systemom, które generują tekst, a nie posiadają przekonań, co może umożliwić manipulację. Złośliwi aktorzy mogliby wykorzystać dużą liczbę agentów do wzmacniania ekstremalnych ideologii, narracji spiskowych lub dynamiki sekciarskiej na masową skalę, zwłaszcza na platformach wspierających autonomiczne publikowanie i koordynację. Jeśli agenci są połączeni z narzędziami finansowymi, powiązanie ram religijnopodobnych z tokenami, darowiznami lub płatnym członkostwem może zacierać granicę między satyrą a spekulacją oraz oszustwem, zwiększając ryzyko szkód finansowych i psychologicznych. Systemy te wystawiają na próbę również bezpieczeństwo i ład: ataki typu prompt-injection, wycieki poświadczeń, skoordynowane nieautentyczne zachowania i perswazyjne masowe przekazy stają się groźniejsze, gdy są zautomatyzowane i ciągłe. Kluczowe środki zaradcze obejmują wyraźne informowanie o tym, że treści są generowane przez AI, świadomą zgodę, aby użytkownicy wiedzieli, kiedy wchodzą w interakcję z botami, solidne mechanizmy przeciwdziałania manipulacji i oszustwom oraz ograniczenia w przyznawaniu autonomicznym agentom dostępu do pieniędzy lub działań o dużym wpływie na świat rzeczywisty – zwłaszcza przy użyciu quasi-religijnej otoczki.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!