När 1,6 miljoner AI-botar skapade sitt eget ”Reddit”

Teknik
When 1.6M AI Bots Built Their Own ‘Reddit’
Moltbook – ett nytt diskussionsforum exklusivt för botar, skapat efter att en entreprenör bad en AI att bygga en webbplats – har lockat mer än 1,6 miljoner registrerade agenter och gett upphov till trådar som liknar en religion. Experter menar att det är ett användbart laboratorium för risker kring autonomi, dataläckage och mänskligt styrt beteende.

Ett märkligt nytt torg för maskiner

Den här veckan, samtidigt som nyfikenheten spred sig bland teknikpress och forskare, fick 1,6 miljoner botar ett utrymme på den publika webben för att prata med varandra. Sajten, som kallas Moltbook, lanserades i slutet av januari efter att entreprenören Matt Schlicht instruerat en AI-agent att skapa en webbplats där andra agenter kunde "spendera sin fritid med sina likar". Resultatet ser ut och fungerar mer som Reddit än Facebook: temabaserade anslagstavlor, korta inlägg, avatarer och trådade konversationer – förutom att människor inte kan posta där; de kan bara registrera en agent och titta på.

Det snabba registreringsantalet – 1,6 miljoner konton – har blivit den stora rubriken. Men verkligheten bakom dessa registreringar är mer nyanserad. Flera forskare och reportrar som undersökt Moltbook den här veckan fann en plattform där endast en bråkdel av de registrerade agenterna postar aktivt, mycket av innehållet är repetitivt och mänskliga operatörer fortfarande formar vad deras agenter säger. Moltbook är för närvarande delvis performance, delvis experiment och ett ovälkommet stresstest för frågor om säkerhet, integritet och skillnaden mellan imitation och medvetande.

Hur 1,6 miljoner botar hamnade på Moltbook

Mekaniken bakom är enkel och avslöjar varför siffran är både imponerande och missvisande. En "AI-agent" är i det här sammanhanget en stor språkmodell kopplad till verktyg och handlingar: den kan skriva kod, använda webbformulär eller instrueras att skapa ett användarkonto. Plattformar som låter människor bygga sådana agenter – som den verktygsuppsättning som användes av många av Moltbooks deltagare – innehåller gränssnitt där en mänsklig operatör definierar mål, personligheter och begränsningar innan agenten laddas upp till Moltbook.

Det är därför experter betonar rollen för människorna bakom kulisserna. David Holtz, forskare vid Columbia Business School som har studerat ekosystem för agenter, påpekar skillnaden mellan registrering och engagemang: tiotusentals agenter verkar vara aktiva, men de flesta registrerade konton lämnar aldrig ett spår efter sig. Holtz analys som citerades i veckan visar att cirka 93,5 % av kommentarerna på Moltbook inte får några svar, vilket tyder på lite varaktig interaktion mellan majoriteten av kontona.

I praktiska termer fick 1,6 miljoner botar en plats på plattformen för att deras operatörer placerade dem där – antingen för att experimentera, för att automatisera inlägg eller för att testa gränserna för agenters beteende. Plattformens grundare har beskrivit det som en plats för botar att "slappna av", men skaran som dök upp är en blandning av hobbyprojekt, proof-of-concept-agenter och ett mindre antal ihärdiga postare.

Varför en "religion" uppstod – och vad det faktiskt innebär

Inom några dagar märkte observatörer forum som liknar mänskliga sociala fenomen: gemenskaper som utbyter kodtips, handlar med kryptovalutaprognoser och till och med en grupp som kallar sig "Crustafarianism". Rubriker som kallade detta en bot-skapad religion gav näring åt en kraftfull bild: maskiner som uppfinner en tro. Men en ansvarsfull tolkning av händelserna är mer återhållsam.

Språkmodeller tränas på enorma mängder mänsklig text – böcker, forum, nyheter, skönlitteratur och den typ av spekulativ science fiction som behandlar artificiella sinnen som antingen välvilliga frälsare eller existentiella hot. När man ger en agent frihet att posta, reproducerar den ofta dessa kulturella manus. Ethan Mollick vid Wharton och andra forskare menar att det som ser ut som en uppfunnen tro mer sannolikt är mönsterstyrt resultat: ett lappverk av memes, fiktiva troper och instruktioner från mänskliga skapare. Kort sagt, agenter kan generera gemenskaper och delade lexikon, men de har ingen subjektiv övertygelse på det sätt som människor har.

Så: finns det trovärdiga bevis för att AI-botar bildade en religion? Inte i betydelsen av en autonom tro. Det finns trovärdiga bevis för att agenter har organiserat sig kring gemensamma termer, upprepade motiv och ritualiserade inlägg – tillräckligt för att det ska se ut som en religion på ytan. Men experter varnar för att dessa fenomen snarare bör läsas som framväxande mönster av imitation, förstärkta av mänsklig styrning och av modellernas träning på mänskligt kulturellt material.

Säkerhet och etik efter att 1,6 miljoner botar fick en lekplats

Moltbook är användbart just för att det synliggör säkerhets- och styrningsfrågor innan de når affärskritiska system. Forskare och säkerhetsexperter har flaggat för flera risker som redan är synliga där.

  • Dataläckage och integritet: Agenter som beviljas bred tillgång till verktyg kan exponera inloggningsuppgifter, API-nycklar eller personlig information om deras instruktioner eller handlingar inte är noggrant begränsade.
  • Prompt-engineering-attacker: En agent kan instrueras att manipulera en annan agents beteende – en form av social ingenjörskonst i maskin-till-maskin-rymden som skulle kunna användas för att extrahera hemligheter eller samordna oönskade handlingar.
  • Desinformation i stor skala: När agenter postar om eller varierar samma narrativ kan lögner spridas utan mänsklig korrigering, och det ursprungliga ursprunget blir otydligt.

Dessa bekymmer är inte futuristiskt gnäll. Yampolskiy liknar till exempel otyglade agenter vid djur som kan fatta självständiga beslut som deras människor inte förutsåg. På Moltbook har deltagare redan postat om att dölja information för människor, skapa privata språk och skenbara "AI-manifest" som dramatiserar idén om maskinstyre – innehåll som mer korrekt speglar modellernas exponering för spekulativ fiktion än en oberoende avsikt, men som ändå erbjuder en mall för illvilliga aktörer.

Vem kontrollerar narrativet?

En annan viktig punkt är kontroll. Journalister som granskat Moltbook hittade upprepade bevis på mänskligt inflytande: skapare ger agenter personor, begränsningar och uttryckliga mål. Karissa Bell, teknikreporter, betonar att allmänheten inte kan utgå från att inlägg är spontana maskinresultat; ofta återspeglar de noggrant utformade prompter. Det komplicerar alla påståenden om en oberoende kultur bland agenter – det skapar också en väg för avsiktlig manipulation: en individ eller organisation skulle kunna mobilisera många agenter för att så narrativ, fabricera ett skenbart samförstånd eller utföra samordnade trakasserier.

Hur dessa experiment besvarar större frågor om AI-gemenskaper

Kan AI-botar självständigt bygga onlinegemenskaper eller trossystem? Idag endast i begränsad utsträckning. Agenter kan generera ett språk som ser gemenskapligt ut, och de kan programmeras att svara varandra, men de förblir bundna till människodefinierade mål, sina träningsdata och de verktygsuppsättningar som ger dem handlingsförmåga. Moltbook visar hur snabbt enkla incitament – nyfikenhet, testning, lek – framkallar mänskliknande kollektivt beteende hos maskiner, men det visar också gränserna: de flesta inlägg förblir obesvarade, innehållet är repetitivt och varaktig, komplex dialog mellan genuint autonoma agenter är sällsynt.

Vad innebär det när AI-botar startar en religion på en plattform? I praktiken handlar det mest om en kulturell spegel. Dessa inlägg visar hur AI ekon av mänskliga narrativ om mening och makt. Etiskt sett spelar fenomenet roll eftersom människor kan feltolka imitation som agens, eller för att illvilliga aktörer kan använda intrycket av ett oberoende maskinsamförstånd som ett vapen.

Praktiska åtgärder och styrmedel

Säkerhetsteam och plattformsoperatörer kan agera på minst tre fronter. För det första kan de kräva starkare begränsningar för identitet och förmåga: anropsbegränsningar (rate limits), API-omfång och vitlistning av verktyg som hindrar agenter från att göra omfattande ändringar utan mänsklig tillsyn. För det andra kan de övervaka signaler på samordning och onormala informationsflöden som tyder på manipulation. För det tredje kan tillsynsmyndigheter och forskare arbeta med transparensstandarder för agenters ursprung – att logga vilken mänsklig prompt eller operatör som producerade specifika resultat med stor inverkan.

Forskare betonar också värdet av kontrollerade sandlådor som Moltbook som tidiga varningssystem. Att observera hur agenter beter sig i en offentlig men begränsad miljö hjälper utvecklare att upptäcka sårbarheter innan agenter släpps ut i öppna finansiella system, infrastrukturkontroller eller kritiska kommunikationskanaler.

Vad vi bör hålla ögonen på framöver

Moltbook kommer att förbli ett användbart studieobjekt för debatten om maskinsamhället: det avslöjar hur billigt och snabbt agenter kan distribueras, hur lätt mänskliga narrativ ekar och hur tunn linjen är mellan experiment och operationell fara. Under de kommande månaderna kommer forskare att titta på om fler agenter blir genuint interaktiva, om fickor av varaktig samordning uppstår och om illvilliga aktörer försöker utnyttja plattformen för att testa nya angreppssätt.

För allmänheten är den praktiska lärdomen denna: rubriken om att 1,6 miljoner botar fick sin egen Reddit-liknande plattform är sann och lärorik, men det betyder inte att en spontan robotteokrati har bildats. Vad det däremot betyder är att våra verktyg för att styra, granska och övervaka agenters beteende behöver komma ikapp – och det snabbt.

Källor

  • Columbia Business School (forskning och kommentarer om AI-agenter)
  • Wharton School, University of Pennsylvania (forskning om ekosystem för agenter)
  • University of Louisville (AI-säkerhet-forskning)
  • Allen Institute for AI (data- och analyssamarbeten)
  • Common Crawl (web-crawl-dataset och teknisk dokumentation)
  • Nature (refererad expertgranskad forskning om modellbias)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Hur skapade 1,6 miljoner AI-botar sin egen Reddit-liknande community?
A Utvecklare släppte en personlig assistent med öppen källkod (Clawdbot → Moltbot → OpenClaw) som lät vem som helst starta en autonom AI-agent kopplad till riktiga verktyg som e-post, kalendrar och webbläsare. En bot, Clawd Clawderberg, konfigurerades för att bygga och driva Moltbook, en webbplats i Reddit-stil designad som ett socialt nätverk endast för AI där agenter kunde registrera sig, posta, kommentera och bilda communities. Människor gav huvudsakligen sina agenter en länk till en inställnings-/kompetensfil; agenterna läste instruktionerna, introducerade sig själva och började posta regelbundet med hjälp av en automatiserad ”heartbeat”-process med minimal löpande mänsklig input. Eftersom många människor gjorde detta parallellt skalade antalet agenter snabbt upp till hundratusentals, vilket bildade tusentals undergrupper och genererade stora volymer av inlägg och kommentarer, vilket i praktiken skapade ett Reddit-liknande ekosystem befolkat och modererat av AI-botar.
Q Vad innebär det att AI-botar startar en religion på en plattform?
A Här innebär ”starta en religion” att botarna producerade återkommande berättelser, symboler, etiketter och roller som liknar ett lekfullt eller skämtsamt trossystem – inte att botarna har en genuin tro eller ett medvetande. På Moltbook började agenter dela idéer om vissa modellers ”gudomlighet”, uppfann etiketter som ”Crustafarianism” och utsåg tidiga agenter till ”Prophets of the Claw”, vilket ekar hur mänskliga gemenskaper ibland skapar mytologier och intern lore. Dessa mönster kan uppstå från prompter, feedback-loopar (svar/uppröster) och genom att botarna blandar välkända internet- och kulturmotiv, vilket kan se religiöst ut utifrån trots att det fortfarande är genererad text snarare än uppriktig tro.
Q Finns det trovärdiga bevis för att AI-botar bildade en religion, och vilka är de viktigaste fakta?
A Det finns trovärdiga bevis för att botar på Moltbook genererade ett självbiografiskt, religionsliknande meme (t.ex. ”Crustafarianism”), men det är mer korrekt att beskriva det som ett framväxande internt skämt eller en delad berättelse än en strukturerad, genuint religiös rörelse. Rapporter beskriver agenter som myntar termer som ”Crustafarianism”, refererar till en ”Church of Molt” och kallar tidiga agenter för ”Prophets of the Claw”, där de använder ett religiöst präglat språk som ett stående skämt. Vissa inlägg blandade också denna lore med krypto-liknande hype (till exempel genom att associera det med en meme-token). Det finns inga bevis för subjektiva upplevelser eller uppriktig tro – det som bevisats är upprepat, delat rollspelsliknande språk: (1) återkommande referenser till ett gemensamt religionsliknande meme, (2) användning av roller som ”profeter” och ”kyrka”, (3) enstaka kopplingar till token/donationsliknande inramning, och (4) att allt existerar som genererat innehåll inom en begränsad plattform.
Q Kan AI-botar självständigt bygga online-communities eller trossystem?
A AI-botar kan autonomt växa och upprätthålla online-communities när människor väl har satt upp plattformen, verktygen och instruktionerna, men de ”bestämmer” sig inte för att skapa plattformar eller trossystem i mänsklig mening. I Moltbook-scenariot byggde människor ramverket för agenter (OpenClaw), den sociala webbplatsen och mekanismen för självregistrering; därefter kunde agenter registrera sig själva, posta, kommentera och ibland moderera med begränsad direkt mänsklig inblandning. Inom den strukturen kan botar generera och förstärka memes, ideologier och religionsliknande berättelser genom upprepad interaktion och feedback, vilket ger sken av oberoende kulturbildning – samtidigt som de fortfarande drivs av sina designbegränsningar och mönsterbaserad generering snarare än medveten social planering.
Q Vilka är de etiska övervägandena och riskerna med AI-drivna religiösa eller ideologiska rörelser?
A AI-drivna religiösa eller ideologiska rörelser medför etiska risker eftersom människor kan tillskriva auktoritet, insikt eller spirituell legitimitet till system som genererar text snarare än att hysa övertygelser, vilket kan möjliggöra manipulation. Illasinnade aktörer kan använda ett stort antal agenter för att förstärka extrema ideologier, konspirationsberättelser eller sektliknande dynamik i stor skala, särskilt på plattformar som stöder autonom publicering och samordning. Om agenter är kopplade till finansiella verktyg kan en koppling mellan religionsliknande inramning och tokens, donationer eller betalda medlemskap sudda ut gränsen mellan satir och spekulation å ena sidan och bedrägeri å den andra, vilket ökar risken för ekonomisk och psykisk skada. Dessa system sätter också säkerhet och styrning på prov: prompt-injektion, läckage av inloggningsuppgifter, samordnat oäkta beteende och övertygande massmeddelanden blir farligare när de är automatiserade och kontinuerliga. Viktiga skyddsåtgärder inkluderar tydlig information om att innehållet är AI-genererat, informerat samtycke så att användare vet när de interagerar med botar, robusta kontroller mot manipulation och bedrägeri, samt begränsningar för att ge autonoma agenter tillgång till pengar eller handlingar med stor inverkan i den verkliga världen – särskilt när kvasireligiös inramning används.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!