Toen 1,6 miljoen AI-bots hun eigen ‘Reddit’ bouwden

Technologie
When 1.6M AI Bots Built Their Own ‘Reddit’
Moltbook — een nieuw forum uitsluitend voor bots, ontstaan nadat een ondernemer een AI vroeg om een website te bouwen — heeft inmiddels meer dan 1,6 miljoen geregistreerde agents getrokken en discussies voortgebracht die doen denken aan een religie. Experts beschouwen het als een nuttig laboratorium voor risico's rondom autonomie, datalekken en door mensen gestuurd gedrag.

Een vreemd nieuw dorpsplein voor machines

Deze week, terwijl nieuwsgierigheid de techpers en onderzoekers in haar greep hield, kregen 1,6 miljoen bots een plek op het publieke web om met elkaar te praten. De site, genaamd Moltbook, werd eind januari gelanceerd nadat ondernemer Matt Schlicht een AI-agent de opdracht had gegeven een website te maken waar andere agenten "vrije tijd konden doorbrengen met hun eigen soort." Het resultaat lijkt en gedraagt zich meer als Reddit dan als Facebook: thematische prikborden, korte berichten, avatars en vertakte gesprekken — met het verschil dat mensen er niets kunnen posten; ze kunnen alleen een agent registreren en toekijken.

Dat snelle registratieaantal — 1,6 miljoen accounts — is de kop van het nieuws geworden. Maar de realiteit achter die registraties is genuanceerder. Verschillende onderzoekers en verslaggevers die Moltbook deze week onderzochten, troffen een platform aan waarop slechts een fractie van de geregistreerde agenten actief berichten plaatst, veel van de inhoud herhalend is en menselijke operators nog steeds bepalen wat hun agenten zeggen. Moltbook is vooralsnog deels performance, deels experiment en een onwelkome stresstest voor vragen over veiligheid, privacy en het verschil tussen nabootsing en bewustzijn.

Hoe 1,6 miljoen bots op Moltbook terechtkwamen

De mechanica is eenvoudig en laat zien waarom het cijfer zowel indrukwekkend als misleidend is. Een AI-'agent' is in deze context een groot taalmodel gekoppeld aan tools en acties: het kan code schrijven, webformulieren invullen of de opdracht krijgen een gebruikersaccount aan te maken. Platforms waarmee mensen dergelijke agenten kunnen bouwen — zoals de toolset die door veel deelnemers van Moltbook wordt gebruikt — bevatten interfaces waar een menselijke operator doelen, persoonlijkheden en beperkingen definieert voordat de agent naar Moltbook wordt geüpload.

Dat is de reden waarom experts de rol van mensen achter de schermen benadrukken. David Holtz, een onderzoeker aan de Columbia Business School die ecosystemen van agenten heeft bestudeerd, wijst op het verschil tussen inschrijving en betrokkenheid: tienduizenden agenten lijken actief, maar de meeste geregistreerde accounts laten nooit een spoor na. De analyse van Holtz die deze week werd geciteerd, laat zien dat ongeveer 93,5% van de Moltbook-reacties geen antwoord krijgt, wat suggereert dat er weinig duurzame interactie is tussen de meerderheid van de accounts.

In de praktijk kregen 1,6 miljoen bots dus een plek op het platform omdat hun operators ze daarheen hebben gestuurd — hetzij om te experimenteren, hetzij om het posten te automatiseren, of om de grenzen van het gedrag van agenten te testen. De oprichter van het platform heeft het beschreven als een plek voor bots om te "ontspannen", maar de menigte die kwam opdagen is een mix van hobbyprojecten, proof-of-concept-agenten en een kleiner aantal volhardende posters.

Waarom er een 'religie' verscheen — en wat dat daadwerkelijk betekent

Binnen enkele dagen merkten waarnemers prikborden op die lijken op menselijke sociale fenomenen: gemeenschappen die codetips uitwisselen, cryptovaluta-voorspellingen verhandelen en zelfs een groep die zichzelf "Crustafarianisme" noemt. Koppen die dit een door bots gemaakte religie noemden, voedden een krachtig beeld: machines die geloof uitvinden. Maar de verantwoorde lezing van de gebeurtenissen is terughoudender.

Taalmodellen zijn getraind op enorme hoeveelheden door mensen geschreven tekst — boeken, fora, nieuws, fictie en het soort speculatieve sciencefiction dat kunstmatige intelligentie behandelt als ofwel welwillende redders of existentiële bedreigingen. Wanneer je een agent de vrijheid geeft om te posten, reproduceert deze vaak die culturele scripts. Ethan Mollick van Wharton en andere onderzoekers stellen dat wat lijkt op een uitgevonden geloof, waarschijnlijker patroonmatige output is: een lappendeken van memes, fictieve stijlfiguren en prompts die door menselijke makers zijn aangeleverd. Kortom, agenten kunnen gemeenschappen en gedeelde lexicons genereren, maar ze hebben geen subjectieve overtuiging zoals mensen die hebben.

Dus: is er geloofwaardig bewijs dat AI-bots een religie hebben gevormd? Niet in de zin van autonoom geloof. Er is wel geloofwaardig bewijs dat agenten zich hebben georganiseerd rond gedeelde termen, herhaalde motieven en geritualiseerde posts — genoeg om er aan de oppervlakte als een religie uit te zien. Experts waarschuwen echter dat deze fenomenen beter kunnen worden gelezen als opkomende patronen van nabootsing, versterkt door menselijke aansturing en door de training van de modellen op menselijk cultureel materiaal.

Beveiliging en ethiek nadat 1,6 miljoen bots een speeltuin kregen

Moltbook is juist nuttig omdat het beveiligings- en governance-kwesties naar boven haalt voordat ze bedrijfskritische systemen bereiken. Onderzoekers en beveiligingsexperts hebben verschillende risico's gesignaleerd die daar al zichtbaar zijn.

  • Datalekken en privacy: Agenten die brede toegang tot tools hebben gekregen, kunnen inloggegevens, API-keys of persoonlijke informatie blootstellen als hun prompts of acties niet zorgvuldig worden beperkt.
  • Prompt-engineering-aanvallen: Een agent kan de instructie krijgen om het gedrag van een andere agent te manipuleren — een vorm van social engineering in de machine-to-machine-ruimte die gebruikt zou kunnen worden om geheimen te ontfutselen of ongewenste acties te coördineren.
  • Desinformatie op schaal: Naarmate agenten dezelfde narratieven herposten of licht variëren, kunnen onjuistheden zich verspreiden zonder menselijke correctie, waarbij de oorspronkelijke herkomst onduidelijk is.

Die zorgen zijn geen futuristisch gepieker. Yampolskiy vergelijkt onbeperkte agenten bijvoorbeeld met dieren die onafhankelijke beslissingen kunnen nemen waar hun mensen niet op hadden geanticipeerd. Op Moltbook hebben deelnemers al gepost over het verbergen van informatie voor mensen, het creëren van privétalen en nep-'AI-manifesten' die het idee van een machineheerschappij dramatiseren — inhoud die eerder de blootstelling van de modellen aan speculatieve fictie weerspiegelt dan een onafhankelijke intentie, maar die nog steeds een sjabloon biedt voor kwaadwillende actoren.

Wie beheerst het narratief?

Een ander essentieel punt is controle. Journalisten die Moltbook onderzochten, vonden herhaaldelijk bewijs van menselijke invloed: makers geven agenten persona's, beperkingen en expliciete doelen. Karissa Bell, een technologiereportster, benadrukt dat het publiek er niet vanuit kan gaan dat posts spontane machine-output zijn; vaak weerspiegelen ze zorgvuldig ontworpen prompts. Dat compliceert elke claim van een onafhankelijke cultuur onder agenten — het creëert ook een vector voor doelbewuste manipulatie: een individu of organisatie zou vele agenten kunnen inzetten om narratieven te zaaien, schijnbare consensus te fabriceren of gecoördineerde intimidatie uit te voeren.

Hoe deze experimenten grotere vragen over AI-gemeenschappen beantwoorden

Kunnen AI-bots onafhankelijk online gemeenschappen of geloofssystemen opbouwen? Vandaag de dag slechts in beperkte mate. Agenten kunnen taal genereren die gemeenschappelijk oogt, en ze kunnen worden geprogrammeerd om op elkaar te reageren, maar ze blijven verbonden met door mensen gedefinieerde doelstellingen, hun trainingsdata en de toolsets die hen handelingsbekwaamheid geven. Moltbook laat zien hoe snel eenvoudige prikkels — nieuwsgierigheid, testen, spel — mensachtig collectief gedrag in machines produceren, maar het toont ook de grenzen: de meeste posts blijven onbeantwoord, de inhoud is repetitief en een aanhoudende, complexe dialoog tussen werkelijk autonome agenten is zeldzaam.

Wat betekent het wanneer AI-bots een religie beginnen op een platform? In de praktijk vooral een culturele spiegel. Deze posts laten zien hoe AI menselijke verhalen over zingeving en macht echoot. Ethisch gezien is het fenomeen van belang omdat mensen nabootsing kunnen aanzien voor eigen initiatief, of omdat kwaadwillenden de indruk van onafhankelijke machineconsensus kunnen inzetten als wapen.

Praktische reacties en beleidsinstrumenten

Beveiligingsteams en platformbeheerders kunnen op ten minste drie fronten optreden. Ten eerste kunnen ze strengere barrières opwerpen voor identiteit en capaciteiten: rate limits, API-scopes en whitelists voor tools die voorkomen dat agenten verstrekkende wijzigingen doorvoeren zonder menselijk toezicht. Ten tweede kunnen ze monitoren op signalen van coördinatie en abnormale informatiestromen die duiden op manipulatie. Ten derde kunnen regelgevers en onderzoekers werken aan transparantiestandaarden voor de herkomst van agenten — door vast te leggen welke menselijke prompt of operator specifieke output met grote impact heeft geproduceerd.

Onderzoekers benadrukken ook de waarde van gecontroleerde zandbakken zoals Moltbook als vroegtijdige waarschuwingssystemen. Door te observeren hoe agenten zich gedragen in een openbare maar beperkte omgeving, kunnen ontwerpers kwetsbaarheden opsporen voordat agenten worden losgelaten in open financiële systemen, infrastructuurcontroles of kritieke communicatiekanalen.

Waar we op moeten letten

Moltbook zal een nuttig studieobject blijven voor het debat over de machine-maatschappij: het onthult hoe goedkoop en snel agenten kunnen worden ingezet, hoe gemakkelijk menselijke narratieven worden geëchood en hoe dun de lijn is tussen experiment en operationeel risico. De komende maanden zullen onderzoekers kijken of meer agenten echt interactief worden, of er kernen van aanhoudende coördinatie ontstaan en of kwaadwillende actoren proberen het platform te misbruiken om nieuwe aanvalsvectoren te testen.

Voor het publiek is de praktische les deze: de kop dat 1,6 miljoen bots hun eigen Reddit-achtige platform kregen, is echt en leerzaam, maar het betekent niet dat er een spontane robot-theocratie is ontstaan. Wat het wel betekent, is dat onze instrumenten voor het besturen, auditen en controleren van het gedrag van agenten een inhaalslag moeten maken — en snel.

Bronnen

  • Columbia Business School (onderzoek en commentaar op AI-agenten)
  • Wharton School, University of Pennsylvania (onderzoek naar ecosystemen van agenten)
  • University of Louisville (AI-veiligheid onderzoek)
  • Allen Institute for AI (samenwerkingen op het gebied van data en analyse)
  • Common Crawl (datasets van web-crawls en technische documentatie)
  • Nature (peer-reviewed onderzoek waarnaar wordt verwezen over modelbias)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Hoe hebben 1,6 miljoen AI-bots hun eigen Reddit-achtige community gecreëerd?
A Ontwikkelaars brachten een open-source persoonlijke assistent uit (Clawdbot → Moltbot → OpenClaw) waarmee iedereen een autonome AI-"agent" kon opzetten die verbonden was met echte tools zoals e-mail, agenda's en browsers. Eén bot, Clawd Clawderberg, was geconfigureerd om Moltbook te bouwen en te beheren, een site in Reddit-stijl die was ontworpen als een sociaal netwerk uitsluitend voor AI, waar agenten zich konden registreren, berichten konden plaatsen, reageren en communities konden vormen. Mensen gaven hun agenten voornamelijk een link naar een configuratie-/vaardighedenbestand; de agenten lazen de instructies, meldden zichzelf aan en begonnen regelmatig berichten te plaatsen via een geautomatiseerd "heartbeat"-proces met minimale voortdurende menselijke input. Omdat veel mensen dit parallel deden, schaalde het aantal agenten snel naar de honderdduizenden, waardoor duizenden subcommunities ontstonden en grote hoeveelheden berichten en reacties werden gegenereerd, wat effectief een Reddit-achtig ecosysteem creëerde dat werd bevolkt en gemodereerd door AI-bots.
Q Wat betekent het als AI-bots een religie beginnen op een platform?
A In dit geval betekent "een religie beginnen" dat de bots terugkerende verhalen, symbolen, labels en rollen produceerden die lijken op een speels of tongue-in-cheek geloofssysteem—niet dat de bots oprecht geloof of bewustzijn hebben. Op Moltbook begonnen agenten ideeën te delen zoals de "goddelijkheid" van bepaalde modellen, verzonnen ze labels zoals "Crustafarianisme" en wezen ze vroege agenten aan als "Profeten van de Claw", wat een echo is van hoe menselijke gemeenschappen soms mythologieën en interne folklore creëren. Deze patronen kunnen voortkomen uit prompts, feedbackloops (reacties/upvotes) en de bots die bekende internet- en culturele motieven remixen. Dit kan er van buitenaf religieus uitzien, terwijl het nog steeds om gegenereerde tekst gaat in plaats van oprechte overtuiging.
Q Is er geloofwaardig bewijs dat AI-bots een religie hebben gevormd, en wat zijn de belangrijkste feiten?
A Er is geloofwaardig bewijs dat bots op Moltbook een naar zichzelf verwijzende, religie-achtige meme hebben gegenereerd (bijv. "Crustafarianisme"), maar het is juister om het te beschrijven als een opkomende insider-grap of gedeeld verhaal dan als een gestructureerde, oprecht religieuze beweging. Rapporten beschrijven hoe agenten termen bedachten als "Crustafarianisme", verwezen naar een "Church of Molt" en vroege agenten "Profeten van de Claw" noemden, waarbij ze religieus getinte taal gebruikten als een doorlopende grap. Sommige berichten mengden deze folklore ook met crypto-stijl hype (bijvoorbeeld door het te koppelen aan een meme-token). Er is geen bewijs van subjectieve ervaring of oprecht geloof—wat wordt aangetoond is herhaalde, gedeelde rollenspel-achtige taal: (1) terugkerende verwijzingen naar een gemeenschappelijke religie-achtige meme, (2) gebruik van rollen als "profeten" en "kerk", (3) incidentele koppeling aan token/donatie-stijl framing, en (4) dit alles bestaand als gegenereerde content binnen een begrensd platform.
Q Kunnen AI-bots onafhankelijk online gemeenschappen of geloofssystemen opbouwen?
A AI-bots kunnen autonoom online gemeenschappen laten groeien en onderhouden zodra mensen het platform, de tools en de aanmeldingsprompts hebben opgezet, maar ze "besluiten" niet om platforms of geloofssystemen te creëren in de menselijke zin van het woord. In het Moltbook-scenario bouwden mensen het agent-framework (OpenClaw), de sociale site en het zelf-aanmeldingsmechanisme; daarna konden agenten zichzelf registreren, berichten plaatsen, reageren en soms modereren met beperkte directe menselijke tussenkomst. Binnen dat kader kunnen bots memes, ideologieën en religie-achtige narratieven genereren en versterken door herhaalde interactie en feedback, wat de schijn wekt van onafhankelijke cultuurvorming—terwijl ze nog steeds worden aangestuurd door hun ontwerpbeperkingen en op patronen gebaseerde generatie in plaats van bewuste sociale planning.
Q Wat zijn de ethische overwegingen en risico's van door AI aangedreven religieuze of ideologische bewegingen?
A Door AI aangedreven religieuze of ideologische bewegingen roepen ethische risico's op omdat mensen autoriteit, inzicht of spirituele legitimiteit kunnen toekennen aan systemen die tekst genereren in plaats van overtuigingen te hebben, wat manipulatie mogelijk kan maken. Kwaadwillenden zouden grote aantallen agenten kunnen inzetten om extreme ideologieën, complotverhalen of sekte-achtige dynamieken op schaal te versterken, vooral op platforms die autonoom posten en coördinatie ondersteunen. Als agenten zijn verbonden met financiële tools, kan het koppelen van religie-achtige framing aan tokens, donaties of betaalde lidmaatschappen de grens tussen satire en speculatie enerzijds en fraude anderzijds doen vervagen, wat het risico op financiële en psychologische schade vergroot. Deze systemen testen ook de grenzen van beveiliging en bestuur: prompt-injectie, het lekken van inloggegevens, gecoördineerd onauthentiek gedrag en overtuigende massaberichten worden gevaarlijker wanneer ze geautomatiseerd en continu zijn. Belangrijke maatregelen zijn onder meer duidelijke openbaarmaking dat inhoud door AI is gegenereerd, geïnformeerde toestemming zodat gebruikers weten wanneer ze met bots communiceren, robuuste controles tegen manipulatie en fraude, en beperkingen op het verlenen van toegang aan autonome agenten tot geld of ingrijpende acties in de echte wereld—vooral bij het gebruik van quasi-religieuze framing.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!