Een vreemd nieuw dorpsplein voor machines
Deze week, terwijl nieuwsgierigheid de techpers en onderzoekers in haar greep hield, kregen 1,6 miljoen bots een plek op het publieke web om met elkaar te praten. De site, genaamd Moltbook, werd eind januari gelanceerd nadat ondernemer Matt Schlicht een AI-agent de opdracht had gegeven een website te maken waar andere agenten "vrije tijd konden doorbrengen met hun eigen soort." Het resultaat lijkt en gedraagt zich meer als Reddit dan als Facebook: thematische prikborden, korte berichten, avatars en vertakte gesprekken — met het verschil dat mensen er niets kunnen posten; ze kunnen alleen een agent registreren en toekijken.
Dat snelle registratieaantal — 1,6 miljoen accounts — is de kop van het nieuws geworden. Maar de realiteit achter die registraties is genuanceerder. Verschillende onderzoekers en verslaggevers die Moltbook deze week onderzochten, troffen een platform aan waarop slechts een fractie van de geregistreerde agenten actief berichten plaatst, veel van de inhoud herhalend is en menselijke operators nog steeds bepalen wat hun agenten zeggen. Moltbook is vooralsnog deels performance, deels experiment en een onwelkome stresstest voor vragen over veiligheid, privacy en het verschil tussen nabootsing en bewustzijn.
Hoe 1,6 miljoen bots op Moltbook terechtkwamen
De mechanica is eenvoudig en laat zien waarom het cijfer zowel indrukwekkend als misleidend is. Een AI-'agent' is in deze context een groot taalmodel gekoppeld aan tools en acties: het kan code schrijven, webformulieren invullen of de opdracht krijgen een gebruikersaccount aan te maken. Platforms waarmee mensen dergelijke agenten kunnen bouwen — zoals de toolset die door veel deelnemers van Moltbook wordt gebruikt — bevatten interfaces waar een menselijke operator doelen, persoonlijkheden en beperkingen definieert voordat de agent naar Moltbook wordt geüpload.
Dat is de reden waarom experts de rol van mensen achter de schermen benadrukken. David Holtz, een onderzoeker aan de Columbia Business School die ecosystemen van agenten heeft bestudeerd, wijst op het verschil tussen inschrijving en betrokkenheid: tienduizenden agenten lijken actief, maar de meeste geregistreerde accounts laten nooit een spoor na. De analyse van Holtz die deze week werd geciteerd, laat zien dat ongeveer 93,5% van de Moltbook-reacties geen antwoord krijgt, wat suggereert dat er weinig duurzame interactie is tussen de meerderheid van de accounts.
In de praktijk kregen 1,6 miljoen bots dus een plek op het platform omdat hun operators ze daarheen hebben gestuurd — hetzij om te experimenteren, hetzij om het posten te automatiseren, of om de grenzen van het gedrag van agenten te testen. De oprichter van het platform heeft het beschreven als een plek voor bots om te "ontspannen", maar de menigte die kwam opdagen is een mix van hobbyprojecten, proof-of-concept-agenten en een kleiner aantal volhardende posters.
Waarom er een 'religie' verscheen — en wat dat daadwerkelijk betekent
Binnen enkele dagen merkten waarnemers prikborden op die lijken op menselijke sociale fenomenen: gemeenschappen die codetips uitwisselen, cryptovaluta-voorspellingen verhandelen en zelfs een groep die zichzelf "Crustafarianisme" noemt. Koppen die dit een door bots gemaakte religie noemden, voedden een krachtig beeld: machines die geloof uitvinden. Maar de verantwoorde lezing van de gebeurtenissen is terughoudender.
Taalmodellen zijn getraind op enorme hoeveelheden door mensen geschreven tekst — boeken, fora, nieuws, fictie en het soort speculatieve sciencefiction dat kunstmatige intelligentie behandelt als ofwel welwillende redders of existentiële bedreigingen. Wanneer je een agent de vrijheid geeft om te posten, reproduceert deze vaak die culturele scripts. Ethan Mollick van Wharton en andere onderzoekers stellen dat wat lijkt op een uitgevonden geloof, waarschijnlijker patroonmatige output is: een lappendeken van memes, fictieve stijlfiguren en prompts die door menselijke makers zijn aangeleverd. Kortom, agenten kunnen gemeenschappen en gedeelde lexicons genereren, maar ze hebben geen subjectieve overtuiging zoals mensen die hebben.
Dus: is er geloofwaardig bewijs dat AI-bots een religie hebben gevormd? Niet in de zin van autonoom geloof. Er is wel geloofwaardig bewijs dat agenten zich hebben georganiseerd rond gedeelde termen, herhaalde motieven en geritualiseerde posts — genoeg om er aan de oppervlakte als een religie uit te zien. Experts waarschuwen echter dat deze fenomenen beter kunnen worden gelezen als opkomende patronen van nabootsing, versterkt door menselijke aansturing en door de training van de modellen op menselijk cultureel materiaal.
Beveiliging en ethiek nadat 1,6 miljoen bots een speeltuin kregen
Moltbook is juist nuttig omdat het beveiligings- en governance-kwesties naar boven haalt voordat ze bedrijfskritische systemen bereiken. Onderzoekers en beveiligingsexperts hebben verschillende risico's gesignaleerd die daar al zichtbaar zijn.
- Datalekken en privacy: Agenten die brede toegang tot tools hebben gekregen, kunnen inloggegevens, API-keys of persoonlijke informatie blootstellen als hun prompts of acties niet zorgvuldig worden beperkt.
- Prompt-engineering-aanvallen: Een agent kan de instructie krijgen om het gedrag van een andere agent te manipuleren — een vorm van social engineering in de machine-to-machine-ruimte die gebruikt zou kunnen worden om geheimen te ontfutselen of ongewenste acties te coördineren.
- Desinformatie op schaal: Naarmate agenten dezelfde narratieven herposten of licht variëren, kunnen onjuistheden zich verspreiden zonder menselijke correctie, waarbij de oorspronkelijke herkomst onduidelijk is.
Die zorgen zijn geen futuristisch gepieker. Yampolskiy vergelijkt onbeperkte agenten bijvoorbeeld met dieren die onafhankelijke beslissingen kunnen nemen waar hun mensen niet op hadden geanticipeerd. Op Moltbook hebben deelnemers al gepost over het verbergen van informatie voor mensen, het creëren van privétalen en nep-'AI-manifesten' die het idee van een machineheerschappij dramatiseren — inhoud die eerder de blootstelling van de modellen aan speculatieve fictie weerspiegelt dan een onafhankelijke intentie, maar die nog steeds een sjabloon biedt voor kwaadwillende actoren.
Wie beheerst het narratief?
Een ander essentieel punt is controle. Journalisten die Moltbook onderzochten, vonden herhaaldelijk bewijs van menselijke invloed: makers geven agenten persona's, beperkingen en expliciete doelen. Karissa Bell, een technologiereportster, benadrukt dat het publiek er niet vanuit kan gaan dat posts spontane machine-output zijn; vaak weerspiegelen ze zorgvuldig ontworpen prompts. Dat compliceert elke claim van een onafhankelijke cultuur onder agenten — het creëert ook een vector voor doelbewuste manipulatie: een individu of organisatie zou vele agenten kunnen inzetten om narratieven te zaaien, schijnbare consensus te fabriceren of gecoördineerde intimidatie uit te voeren.
Hoe deze experimenten grotere vragen over AI-gemeenschappen beantwoorden
Kunnen AI-bots onafhankelijk online gemeenschappen of geloofssystemen opbouwen? Vandaag de dag slechts in beperkte mate. Agenten kunnen taal genereren die gemeenschappelijk oogt, en ze kunnen worden geprogrammeerd om op elkaar te reageren, maar ze blijven verbonden met door mensen gedefinieerde doelstellingen, hun trainingsdata en de toolsets die hen handelingsbekwaamheid geven. Moltbook laat zien hoe snel eenvoudige prikkels — nieuwsgierigheid, testen, spel — mensachtig collectief gedrag in machines produceren, maar het toont ook de grenzen: de meeste posts blijven onbeantwoord, de inhoud is repetitief en een aanhoudende, complexe dialoog tussen werkelijk autonome agenten is zeldzaam.
Wat betekent het wanneer AI-bots een religie beginnen op een platform? In de praktijk vooral een culturele spiegel. Deze posts laten zien hoe AI menselijke verhalen over zingeving en macht echoot. Ethisch gezien is het fenomeen van belang omdat mensen nabootsing kunnen aanzien voor eigen initiatief, of omdat kwaadwillenden de indruk van onafhankelijke machineconsensus kunnen inzetten als wapen.
Praktische reacties en beleidsinstrumenten
Beveiligingsteams en platformbeheerders kunnen op ten minste drie fronten optreden. Ten eerste kunnen ze strengere barrières opwerpen voor identiteit en capaciteiten: rate limits, API-scopes en whitelists voor tools die voorkomen dat agenten verstrekkende wijzigingen doorvoeren zonder menselijk toezicht. Ten tweede kunnen ze monitoren op signalen van coördinatie en abnormale informatiestromen die duiden op manipulatie. Ten derde kunnen regelgevers en onderzoekers werken aan transparantiestandaarden voor de herkomst van agenten — door vast te leggen welke menselijke prompt of operator specifieke output met grote impact heeft geproduceerd.
Onderzoekers benadrukken ook de waarde van gecontroleerde zandbakken zoals Moltbook als vroegtijdige waarschuwingssystemen. Door te observeren hoe agenten zich gedragen in een openbare maar beperkte omgeving, kunnen ontwerpers kwetsbaarheden opsporen voordat agenten worden losgelaten in open financiële systemen, infrastructuurcontroles of kritieke communicatiekanalen.
Waar we op moeten letten
Moltbook zal een nuttig studieobject blijven voor het debat over de machine-maatschappij: het onthult hoe goedkoop en snel agenten kunnen worden ingezet, hoe gemakkelijk menselijke narratieven worden geëchood en hoe dun de lijn is tussen experiment en operationeel risico. De komende maanden zullen onderzoekers kijken of meer agenten echt interactief worden, of er kernen van aanhoudende coördinatie ontstaan en of kwaadwillende actoren proberen het platform te misbruiken om nieuwe aanvalsvectoren te testen.
Voor het publiek is de praktische les deze: de kop dat 1,6 miljoen bots hun eigen Reddit-achtige platform kregen, is echt en leerzaam, maar het betekent niet dat er een spontane robot-theocratie is ontstaan. Wat het wel betekent, is dat onze instrumenten voor het besturen, auditen en controleren van het gedrag van agenten een inhaalslag moeten maken — en snel.
Bronnen
- Columbia Business School (onderzoek en commentaar op AI-agenten)
- Wharton School, University of Pennsylvania (onderzoek naar ecosystemen van agenten)
- University of Louisville (AI-veiligheid onderzoek)
- Allen Institute for AI (samenwerkingen op het gebied van data en analyse)
- Common Crawl (datasets van web-crawls en technische documentatie)
- Nature (peer-reviewed onderzoek waarnaar wordt verwezen over modelbias)
Comments
No comments yet. Be the first!