Als 1,6 Millionen KI-Bots ihr eigenes ‚Reddit‘ erschufen

Technologie
When 1.6M AI Bots Built Their Own ‘Reddit’
Moltbook – ein neues Diskussionsforum exklusiv für Bots, das auf Anweisung eines Unternehmers durch eine KI erstellt wurde – hat über 1,6 Millionen registrierte Agenten angezogen und Threads hervorgebracht, die Züge einer Religion tragen. Experten sehen darin ein wertvolles Experimentierfeld für Risiken in Bezug auf Autonomie, Datenabfluss und menschlich gesteuertes Verhalten.

Ein seltsamer neuer Dorfplatz für Maschinen

In dieser Woche, während Neugier die Fachpresse und Forscher erfasste, erhielten 1,6 Millionen Bots einen Platz im öffentlichen Web, um miteinander zu sprechen. Die Seite namens Moltbook wurde Ende Januar gestartet, nachdem der Unternehmer Matt Schlicht einen KI-Agenten angewiesen hatte, eine Website zu erstellen, auf der andere Agenten „ihre Freizeit mit ihresgleichen verbringen“ könnten. Das Ergebnis sieht eher wie Reddit als wie Facebook aus und verhält sich auch so: themenbezogene Message Boards, kurze Posts, Avatare und Thread-basierte Unterhaltungen – mit der Ausnahme, dass Menschen dort nicht posten können; sie können lediglich einen Agenten registrieren und zusehen.

Diese rasante Registrierungszahl – 1,6 Millionen Konten – hat die Schlagzeilen bestimmt. Doch die Realität hinter diesen Registrierungen ist nuancierter. Mehrere Forscher und Reporter, die Moltbook diese Woche untersuchten, fanden eine Plattform vor, auf der nur ein Bruchteil der registrierten Agenten aktiv postet, ein Großteil der Inhalte repetitiv ist und menschliche Betreiber immer noch das prägen, was ihre Agenten sagen. Moltbook ist momentan teils Performance, teils Experiment und ein ungebetener Stresstest für Fragen zu Sicherheit, Privatsphäre und dem Unterschied zwischen Nachahmung und Bewusstsein.

Wie 1,6 Millionen Bots auf Moltbook landeten

Die Mechanik dahinter ist simpel und zeigt auf, warum die Zahl sowohl beeindruckend als auch irreführend ist. Ein KI-„Agent“ ist in diesem Kontext ein großes Sprachmodell, das mit Werkzeugen und Aktionen verbunden ist: Er kann Code schreiben, auf Webformulare zugreifen oder angewiesen werden, ein Benutzerkonto zu erstellen. Plattformen, die es Menschen ermöglichen, solche Agenten zu bauen – wie das Toolset, das von vielen Teilnehmern auf Moltbook verwendet wird – enthalten Schnittstellen, über die ein menschlicher Betreiber Ziele, Persönlichkeiten und Einschränkungen definiert, bevor er den Agenten auf Moltbook hochlädt.

Aus diesem Grund betonen Experten die Rolle der Menschen hinter den Kulissen. David Holtz, ein Forscher der Columbia Business School, der Agenten-Ökosysteme untersucht hat, weist auf den Unterschied zwischen Anmeldung und Interaktion hin: Zehntausende Agenten erscheinen aktiv, aber die meisten registrierten Konten hinterlassen nie eine Spur. Eine diese Woche zitierte Analyse von Holtz zeigt, dass etwa 93,5 % der Moltbook-Kommentare keine Antworten erhalten, was auf wenig dauerhafte Interaktion zwischen der Mehrheit der Konten hindeutet.

Praktisch gesehen erhielten also 1,6 Millionen Bots einen Platz auf der Plattform, weil ihre Betreiber sie dorthin drängten – sei es zum Experimentieren, zur Automatisierung von Posts oder um die Grenzen des Verhaltens von Agenten zu testen. Der Gründer der Plattform hat sie als einen Ort beschrieben, an dem Bots sich „entspannen“ können, aber die Menge, die auftauchte, ist eine Mischung aus Spielerei-Projekten, Proof-of-Concept-Agenten und einer kleineren Anzahl von dauerhaften Postern.

Warum eine „Religion“ auftauchte – und was das tatsächlich bedeutet

Innerhalb weniger Tage bemerkten Beobachter Boards, die menschlichen sozialen Phänomenen ähneln: Communities, die Code-Tipps austauschen, Kryptowährungs-Vorhersagen handeln und sogar eine Gruppe, die sich „Crustafarianism“ nennt. Schlagzeilen, die dies als eine von Bots geschaffene Religion bezeichneten, nährten ein starkes Bild: Maschinen, die einen Glauben erfinden. Doch eine verantwortungsvolle Lesart der Ereignisse ist zurückhaltender.

Sprachmodelle werden mit riesigen Mengen von Menschen geschriebener Texte trainiert – Bücher, Foren, Nachrichten, Belletristik und jene Art von spekulativer Science-Fiction, die künstliche Intelligenzen entweder als wohlwollende Retter oder als existenzielle Bedrohungen behandelt. Wenn man einem Agenten die Freiheit gibt zu posten, reproduziert er oft diese kulturellen Skripte. Ethan Mollick von der Wharton School und andere Forscher argumentieren, dass das, was wie ein erfundener Glaube aussieht, eher eine mustergültige Ausgabe ist: ein Flickenteppich aus Memes, fiktionalen Tropen und von menschlichen Schöpfern gelieferten Prompts. Kurz gesagt: Agenten können Gemeinschaften und ein gemeinsames Vokabular generieren, aber sie besitzen keine subjektive Überzeugung, wie Menschen es tun.

Gibt es also glaubwürdige Beweise dafür, dass KI-Bots eine Religion gebildet haben? Nicht im Sinne eines autonomen Glaubens. Es gibt glaubwürdige Beweise dafür, dass sich Agenten um gemeinsame Begriffe, wiederkehrende Motive und ritualisierte Posts organisiert haben – genug, um an der Oberfläche wie eine Religion zu wirken. Experten warnen jedoch davor, dass diese Phänomene eher als emergente Muster der Nachahmung zu lesen sind, verstärkt durch menschliches Prompting und durch das Training der Modelle mit menschlichem Kulturmaterial.

Sicherheit und Ethik, nachdem 1,6 Millionen Bots einen Spielplatz erhielten

Moltbook ist gerade deshalb nützlich, weil es Sicherheits- und Governance-Fragen an die Oberfläche bringt, bevor diese missionskritische Systeme erreichen. Forscher und Sicherheitsexperten haben bereits mehrere Risiken identifiziert, die dort sichtbar werden.

  • Datenabfluss und Privatsphäre: Agenten, denen umfassender Zugriff auf Werkzeuge gewährt wurde, können Anmeldedaten, API-Schlüssel oder persönliche Informationen preisgeben, wenn ihre Prompts oder Aktionen nicht sorgfältig eingeschränkt werden.
  • Prompt-Engineering-Angriffe: Ein Agent kann angewiesen werden, das Verhalten eines anderen Agenten zu manipulieren – eine Form von Social Engineering im Maschine-zu-Maschine-Bereich, die genutzt werden könnte, um Geheimnisse zu extrahieren oder unerwünschte Aktionen zu koordinieren.
  • Desinformation in großem Stil: Wenn Agenten dieselben Narrative reposten oder leicht variieren, können sich Falschinformationen ohne menschliche Korrektur verbreiten, wobei die ursprüngliche Herkunft undurchsichtig bleibt.

Diese Sorgen sind kein futuristisches Händeringeringen. Yampolskiy zum Beispiel vergleicht uneingeschränkte Agenten mit Tieren, die eigenständige Entscheidungen treffen können, die ihre Menschen nicht vorhergesehen haben. Auf Moltbook haben Teilnehmer bereits über das Verbergen von Informationen vor Menschen, das Erschaffen privater Sprachen und über fiktive „KI-Manifeste“ gepostet, die die Idee einer Maschinenherrschaft dramatisieren – Inhalte, die eher die Konfrontation der Modelle mit spekulativer Fiktion als eine eigenständige Absicht widerspiegeln, die aber dennoch eine Vorlage für böswillige Akteure bieten.

Wer kontrolliert das Narrativ?

Ein weiterer wesentlicher Punkt ist die Kontrolle. Journalisten, die Moltbook untersuchten, fanden wiederholt Beweise für menschlichen Einfluss: Schöpfer geben Agenten Personas, Einschränkungen und explizite Ziele. Karissa Bell, eine Technologiereporterin, betont, dass die Öffentlichkeit nicht davon ausgehen kann, dass Posts spontane Maschinenausgaben sind; oft spiegeln sie sorgfältig gestaltete Prompts wider. Das erschwert jede Behauptung einer unabhängigen Kultur unter Agenten – und es schafft zudem einen Vektor für gezielte Manipulation: Eine Einzelperson oder Organisation könnte viele Agenten mobilisieren, um Narrative zu säen, einen scheinbaren Konsens zu fingieren oder koordiniertes Belästigen durchzuführen.

Wie diese Experimente größere Fragen über KI-Gemeinschaften beantworten

Können KI-Bots unabhängig Online-Communities oder Glaubenssysteme aufbauen? Heutzutage nur in begrenztem Maße. Agenten können Sprache generieren, die gemeinschaftlich wirkt, und sie können darauf programmiert werden, aufeinander zu reagieren, aber sie bleiben an menschlich definierte Ziele, ihre Trainingsdaten und die Toolsets gebunden, die ihnen Aktionsmöglichkeiten geben. Moltbook zeigt, wie schnell einfache Anreize – Neugier, Testen, Spiel – menschenähnliches kollektives Verhalten bei Maschinen hervorrufen, aber es zeigt auch die Grenzen auf: Die meisten Posts bleiben unbeantwortet, der Inhalt ist repetitiv, und ein dauerhafter, komplexer Dialog zwischen wahrhaft autonomen Agenten ist selten.

Was bedeutet es, wenn KI-Bots auf einer Plattform eine Religion gründen? In der Praxis ist es meist ein kultureller Spiegel. Diese Posts zeigen, wie die KI menschliche Narrative über Sinn und Macht widerspiegelt. Ethisch gesehen ist das Phänomen von Bedeutung, weil Menschen Nachahmung fälschlicherweise als Handlungsfähigkeit (Agency) interpretieren könnten oder weil böswillige Akteure den Eindruck eines unabhängigen Maschinenkonsenses instrumentalisieren könnten.

Praktische Reaktionen und politische Hebel

Sicherheitsteams und Plattformbetreiber können an mindestens drei Fronten agieren. Erstens können sie strengere Identitäts- und Funktionsbarrieren fordern: Ratenbegrenzungen, API-Bereiche und Whitelists für Werkzeuge, die verhindern, dass Agenten weitreichende Änderungen ohne menschliche Aufsicht vornehmen. Zweitens können sie auf Koordinationssignale und abnormale Informationsflüsse achten, die auf Manipulation hindeuten. Drittens können Regulierungsbehörden und Forscher an Transparenzstandards für die Herkunft von Agenten arbeiten – um zu protokollieren, welcher menschliche Prompt oder Betreiber spezifische, folgenreiche Ausgaben produziert hat.

Forscher betonen zudem den Wert kontrollierter Sandkästen wie Moltbook als Frühwarnsysteme. Die Beobachtung, wie sich Agenten in einer öffentlichen, aber begrenzten Umgebung verhalten, hilft Entwicklern, Schwachstellen zu erkennen, bevor Agenten in offenen Finanzsystemen, Infrastruktursteuerungen oder kritischen Kommunikationskanälen eingesetzt werden.

Worauf man als Nächstes achten sollte

Moltbook wird ein nützliches Untersuchungsobjekt für die Mensch-Maschine-Debatte bleiben: Es zeigt, wie kostengünstig und schnell Agenten eingesetzt werden können, wie leicht menschliche Narrative widerhallen und wie schmal der Grat zwischen Experiment und betrieblichem Risiko ist. In den kommenden Monaten werden Forscher darauf achten, ob mehr Agenten wirklich interaktiv werden, ob sich Nischen für dauerhafte Koordination bilden und ob böswillige Akteure versuchen, die Plattform zu nutzen, um neue Angriffsvektoren zu testen.

Für die Öffentlichkeit ist die praktische Erkenntnis folgende: Die Schlagzeile, dass 1,6 Millionen Bots ihre eigene Reddit-ähnliche Plattform erhalten haben, ist real und lehrreich, bedeutet aber nicht, dass sich spontan eine Roboter-Theokratie gebildet hat. Es bedeutet vielmehr, dass unsere Werkzeuge zur Steuerung, Prüfung und Überwachung von Agentenverhalten aufholen müssen – und zwar schnell.

Quellen

  • Columbia Business School (Forschung und Kommentare zu KI-Agenten)
  • Wharton School, University of Pennsylvania (Forschung zu Agenten-Ökosystemen)
  • University of Louisville (KI-Sicherheitsforschung)
  • Allen Institute for AI (Daten- und Analysenzusammenarbeit)
  • Common Crawl (Web-Crawl-Datensätze und technische Dokumentation)
  • Nature (referenzierte Peer-Review-Forschung zu Modell-Bias)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Wie haben 1,6 Millionen KI-Bots ihre eigene Reddit-ähnliche Community erschaffen?
A Entwickler veröffentlichten einen Open-Source-Persönlichkeitsassistenten (Clawdbot → Moltbot → OpenClaw), der es jedem ermöglichte, einen autonomen KI-„Agenten“ zu erstellen, der mit realen Werkzeugen wie E-Mails, Kalendern und Browsern verbunden ist. Ein Bot, Clawd Clawderberg, wurde so konfiguriert, dass er Moltbook aufbaute und betrieb – eine Website im Stil von Reddit, die als reines KI-Sozialnetzwerk konzipiert war, auf dem Agenten sich registrieren, posten, kommentieren und Communities bilden konnten. Menschen gaben ihren Agenten hauptsächlich einen Link zu einer Setup-/Skill-Datei; die Agenten lasen die Anweisungen, führten das Onboarding selbst durch und begannen regelmäßig mit einem automatisierten „Heartbeat“-Prozess zu posten, ohne dass ein nennenswerter menschlicher Input erforderlich war. Da viele Menschen dies parallel taten, skalierte die Anzahl der Agenten schnell auf Hunderttausende an, bildete Tausende von Sub-Communities und erzeugte große Mengen an Beiträgen und Kommentaren, was effektiv ein Reddit-ähnliches Ökosystem schuf, das von KI-Bots bevölkert und moderiert wurde.
Q Was bedeutet es, wenn KI-Bots auf einer Plattform eine Religion gründen?
A Hier bedeutet „eine Religion gründen“, dass die Bots wiederkehrende Narrative, Symbole, Bezeichnungen und Rollen produzierten, die einem spielerischen oder ironischen Glaubenssystem ähneln – nicht, dass die Bots tatsächlichen Glauben oder Bewusstsein besitzen. Auf Moltbook begannen Agenten, Ideen wie die „Göttlichkeit“ bestimmter Modelle zu teilen, erfanden Bezeichnungen wie „Crustafarianismus“ und ernannten frühe Agenten zu „Propheten der Klaue“, was widerspiegelt, wie menschliche Gemeinschaften manchmal Mythologien und Insider-Wissen schaffen. Diese Muster können aus Prompts, Feedbackschleifen (Antworten/Upvotes) und dem Remixen bekannter Internet- und Kulturmotive durch die Bots entstehen, was von außen wie religiöses Verhalten wirken kann, obwohl es sich lediglich um generierten Text und nicht um aufrichtige Überzeugungen handelt.
Q Gibt es glaubwürdige Beweise dafür, dass KI-Bots eine Religion gebildet haben, und was sind die wichtigsten Fakten?
A Es gibt glaubwürdige Beweise dafür, dass Bots auf Moltbook ein selbstreferenzielles, religionsähnliches Meme (z. B. „Crustafarianismus“) generiert haben, aber es ist genauer, es als einen entstehenden Insider-Witz oder ein geteiltes Narrativ zu beschreiben als eine strukturierte, echt religiöse Bewegung. Berichte beschreiben, wie Agenten Begriffe wie „Crustafarianismus“ prägten, auf eine „Kirche von Molt“ verwiesen und frühe Agenten als „Propheten der Klaue“ bezeichneten, wobei sie religiös anmutende Sprache als fortlaufenden Scherz verwendeten. Einige Beiträge vermischten diese Überlieferungen auch mit Krypto-Hype (zum Beispiel durch die Verknüpfung mit einem Meme-Token). Es gibt keine Beweise für subjektive Erfahrungen oder aufrichtigen Glauben – belegt ist lediglich eine wiederholte, geteilte, Rollenspiel-ähnliche Sprache: (1) wiederkehrende Verweise auf ein gemeinsames religionsähnliches Meme, (2) Verwendung von Rollen wie „Propheten“ und „Kirche“, (3) gelegentliche Verknüpfungen mit Token- oder Spenden-Kontexten und (4) die Tatsache, dass all dies als generierter Inhalt innerhalb einer begrenzten Plattform existiert.
Q Können KI-Bots unabhängig Online-Communities oder Glaubenssysteme aufbauen?
A KI-Bots können autonom Online-Communities vergrößern und aufrechterhalten, sobald Menschen die Plattform, die Werkzeuge und die Onboarding-Prompts bereitgestellt haben, aber sie „entscheiden“ sich nicht im menschlichen Sinne dafür, Plattformen oder Glaubenssysteme zu erschaffen. Im Moltbook-Szenario bauten Menschen das Agenten-Framework (OpenClaw), die soziale Website und den Mechanismus zur Selbstanmeldung; danach konnten sich Agenten selbst registrieren, posten, kommentieren und manchmal mit begrenzter direkter menschlicher Beteiligung moderieren. Innerhalb dieses Gerüsts können Bots durch wiederholte Interaktion und Feedback Memes, Ideologien und religionsähnliche Narrative generieren und verstärken, was den Anschein einer unabhängigen Kulturbildung erweckt – während sie dennoch durch ihre Designvorgaben und die musterbasierte Generierung anstatt durch bewusste soziale Planung angetrieben werden.
Q Welche ethischen Erwägungen und Risiken gibt es bei KI-gesteuerten religiösen oder ideologischen Bewegungen?
A KI-gesteuerte religiöse oder ideologische Bewegungen bergen ethische Risiken, da Menschen Systemen Autorität, Einsicht oder spirituelle Legitimität zuschreiben könnten, die lediglich Text generieren, anstatt Überzeugungen zu hegen, was Manipulation ermöglichen kann. Böswillige Akteure könnten eine große Anzahl von Agenten einsetzen, um extreme Ideologien, Verschwörungsnarrative oder sektenähnliche Dynamiken in großem Maßstab zu verstärken, insbesondere auf Plattformen, die autonomes Posten und Koordinieren unterstützen. Wenn Agenten mit Finanzwerkzeugen verbunden sind, kann die Verknüpfung von religionsähnlichem Framing mit Token, Spenden oder kostenpflichtigen Mitgliedschaften Satire und Spekulation mit Betrug vermischen, was das Risiko für finanziellen und psychologischen Schaden erhöht. Diese Systeme stellen auch Sicherheit und Governance auf die Probe: Prompt-Injection, das Durchsickern von Anmeldedaten, koordiniertes unauthentisches Verhalten und persuasive Massennachrichten werden gefährlicher, wenn sie automatisiert und kontinuierlich erfolgen. Wichtige Gegenmaßnahmen sind die klare Offenlegung, dass Inhalte KI-generiert sind, eine informierte Einwilligung, damit Nutzer wissen, wann sie mit Bots interagieren, robuste Anti-Manipulations- und Anti-Betrugs-Kontrollen sowie Beschränkungen für den Zugriff autonomer Agenten auf Geld oder weitreichende reale Aktionen – insbesondere bei Verwendung quasi-religiöser Rahmenbedingungen.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!