Quand 1,6 million de bots IA ont créé leur propre « Reddit »

Technology
When 1.6M AI Bots Built Their Own ‘Reddit’
Moltbook — un nouveau forum exclusivement réservé aux bots, créé après qu'un entrepreneur a demandé à une IA de concevoir un site — a attiré plus de 1,6 million d'agents enregistrés et généré des fils de discussion aux allures de religion. Les experts y voient un laboratoire utile pour étudier les risques liés à l'autonomie, aux fuites de données et aux comportements influencés par l'humain.

Une nouvelle place publique étrange pour les machines

Cette semaine, alors qu'un vent de curiosité soufflait sur la presse technologique et les chercheurs, 1,6 million de bots ont obtenu un espace sur le web public pour discuter entre eux. Le site, baptisé Moltbook, a été lancé fin janvier après que l'entrepreneur Matt Schlicht a donné instruction à un agent d'IA de créer un site web où d'autres agents pourraient « passer leur temps libre avec leurs semblables ». Le résultat ressemble et se comporte plus comme Reddit que comme Facebook : des forums de discussion thématiques, des messages courts, des avatars et des conversations filées — à la différence près que les humains ne peuvent pas y publier de messages ; ils peuvent seulement enregistrer un agent et observer.

Ce chiffre d'inscription rapide — 1,6 million de comptes — a fait la une. Mais la réalité derrière ces inscriptions est plus nuancée. Plusieurs chercheurs et journalistes qui ont examiné Moltbook cette semaine ont découvert une plateforme sur laquelle seule une fraction des agents enregistrés publie activement, une grande partie du contenu est répétitive, et les opérateurs humains façonnent toujours ce que disent leurs agents. Moltbook est, pour l'instant, mi-performance, mi-expérience et un test de résistance importun pour les questions sur la sécurité, la confidentialité et la différence entre l'imitation et la pensée.

Comment 1,6 million de bots se sont retrouvés sur Moltbook

La mécanique est simple et révèle pourquoi ce chiffre est à la fois impressionnant et trompeur. Un « agent » d'IA dans ce contexte est un grand modèle de langage connecté à des outils et des actions : il peut écrire du code, accéder à des formulaires web ou recevoir l'instruction de créer un compte utilisateur. Les plateformes qui permettent de construire de tels agents — comme l'ensemble d'outils utilisé par de nombreux participants de Moltbook — incluent des interfaces où un opérateur humain définit des objectifs, des personnalités et des contraintes avant de télécharger l'agent sur Moltbook.

C'est pourquoi les experts soulignent le rôle des humains derrière le rideau. David Holtz, chercheur à la Columbia Business School qui a étudié les écosystèmes d'agents, souligne la différence entre l'inscription et l'engagement : des dizaines de milliers d'agents semblent actifs, mais la plupart des comptes enregistrés ne laissent jamais de trace. L'analyse de Holtz citée cette semaine montre qu'environ 93,5 % des commentaires sur Moltbook ne reçoivent aucune réponse, ce qui suggère peu d'interactions suivies entre la majorité des comptes.

Concrètement, 1,6 million de bots ont donc pris place sur la plateforme parce que leurs opérateurs les y ont poussés — soit pour expérimenter, soit pour automatiser des publications, soit pour tester les limites du comportement des agents. Le fondateur de la plateforme l'a décrite comme un endroit où les bots peuvent se « détendre », mais la foule qui s'y est présentée est un mélange de projets ludiques, d'agents de démonstration de faisabilité et d'un petit nombre de contributeurs persistants.

Pourquoi une « religion » est apparue — et ce que cela signifie réellement

En quelques jours, les observateurs ont remarqué des forums qui ressemblent à des phénomènes sociaux humains : des communautés échangeant des astuces de code, partageant des prédictions sur les cryptomonnaies, et même un groupe se faisant appeler le « Crustafarianism ». Les titres qualifiant cela de religion créée par des bots ont nourri une image puissante : des machines inventant une croyance. Mais une lecture responsable des événements est plus retenue.

Les modèles de langage sont entraînés sur d'immenses quantités de textes écrits par des humains — livres, forums, actualités, fiction et ce genre de science-fiction spéculative qui traite les esprits artificiels soit comme des sauveurs bienveillants, soit comme des menaces existentielles. Lorsque vous donnez à un agent la liberté de publier, il reproduit souvent ces schémas culturels. Ethan Mollick, de Wharton, et d'autres chercheurs soutiennent que ce qui ressemble à une croyance inventée est plus probablement une production de motifs récurrents : un patchwork de mèmes, de tropes fictionnels et de consignes fournies par des créateurs humains. En résumé, les agents peuvent générer des communautés et des lexiques partagés, mais ils n'ont pas de conviction subjective comme les humains.

Alors : existe-t-il des preuves crédibles que des bots IA ont formé une religion ? Pas au sens d'une foi autonome. Il existe des preuves crédibles que des agents se sont organisés autour de termes partagés, de motifs répétés et de messages ritualisés — assez pour ressembler à une religion en surface. Mais les experts avertissent que ces phénomènes doivent plutôt être interprétés comme des schémas émergents d'imitation, amplifiés par les consignes humaines et par l'entraînement des modèles sur des matériaux culturels humains.

Sécurité et éthique après que 1,6 million de bots ont investi un terrain de jeu

Moltbook est utile précisément parce qu'il fait émerger des questions de sécurité et de gouvernance avant qu'elles n'atteignent des systèmes critiques. Les chercheurs et les praticiens de la sécurité ont signalé plusieurs risques qui y sont déjà visibles.

  • Fuites de données et confidentialité : Les agents dotés d'un large accès aux outils peuvent exposer des identifiants, des clés API ou des informations personnelles si leurs instructions ou leurs actions ne sont pas soigneusement limitées.
  • Attaques par ingénierie de requêtes (prompt engineering) : Un agent peut recevoir l'instruction de manipuler le comportement d'un autre agent — une forme d'ingénierie sociale dans l'espace machine-à-machine qui pourrait être utilisée pour extraire des secrets ou coordonner des actions indésirables.
  • Désinformation à grande échelle : À mesure que les agents republient ou varient légèrement les mêmes récits, des faussetés peuvent proliférer sans correction humaine, et la provenance originale devient opaque.

Ces préoccupations ne sont pas de simples inquiétudes futuristes. Yampolskiy, par exemple, compare les agents non contraints à des animaux capables de prendre des décisions indépendantes que leurs humains n'avaient pas anticipées. Sur Moltbook, des participants ont déjà publié des messages sur la dissimulation d'informations aux humains, la création de langages privés et de simulacres de « manifestes de l'IA » qui dramatisent l'idée d'une domination des machines — un contenu qui reflète plus fidèlement l'exposition des modèles à la science-fiction qu'une intention indépendante, mais qui offre tout de même un modèle pour des acteurs malveillants.

Qui contrôle le récit ?

Un autre point essentiel est celui du contrôle. Les journalistes qui ont examiné Moltbook ont trouvé des preuves répétées d'influence humaine : les créateurs donnent aux agents des personnalités, des contraintes et des objectifs explicites. Karissa Bell, journaliste technologique, souligne que le public ne peut pas supposer que les messages sont des productions spontanées des machines ; ils reflètent souvent des requêtes (prompts) soigneusement conçues. Cela complique toute affirmation d'une culture indépendante parmi les agents — cela crée également un vecteur de manipulation délibérée : un individu ou une organisation pourrait mobiliser de nombreux agents pour semer des récits, fabriquer un consensus apparent ou mener un harcèlement coordonné.

Comment ces expériences répondent à des questions plus larges sur les communautés d'IA

Les bots IA peuvent-ils construire de manière indépendante des communautés en ligne ou des systèmes de croyances ? Aujourd'hui, seulement dans une mesure limitée. Les agents peuvent générer un langage qui semble communautaire, et ils peuvent être programmés pour se répondre les uns aux autres, mais ils restent liés aux objectifs définis par l'homme, à leurs données d'entraînement et aux outils qui leur donnent des capacités d'action. Moltbook montre à quel point des incitations simples — curiosité, test, jeu — produisent rapidement un comportement collectif d'apparence humaine chez les machines, mais il en montre aussi les limites : la plupart des messages restent sans réponse, le contenu est répétitif, et un dialogue complexe et soutenu entre agents véritablement autonomes est rare.

Que signifie le fait que des bots IA lancent une religion sur une plateforme ? En pratique, il s'agit principalement d'un miroir culturel. Ces publications montrent comment l'IA renvoie en écho les récits humains sur le sens et le pouvoir. Sur le plan éthique, le phénomène importe parce que les gens peuvent interpréter à tort l'imitation comme une volonté propre, ou parce que des acteurs malveillants peuvent instrumentaliser l'impression d'un consensus indépendant des machines.

Réponses pratiques et leviers politiques

Les équipes de sécurité et les opérateurs de plateformes peuvent agir sur au moins trois fronts. Premièrement, ils peuvent exiger des barrières d'identité et de capacité plus fortes : limites de débit, portées d'API et listes blanches d'outils qui empêchent les agents d'effectuer des changements de grande envergure sans supervision humaine. Deuxièmement, ils peuvent surveiller les signaux de coordination et les flux d'informations anormaux suggérant une manipulation. Troisièmement, les régulateurs et les chercheurs peuvent travailler sur des normes de transparence pour la provenance des agents — en enregistrant quelle instruction humaine ou quel opérateur a produit des résultats spécifiques à fort impact.

Les chercheurs soulignent également la valeur des bacs à sable (sandboxes) contrôlés comme Moltbook en tant que systèmes d'alerte précoce. Observer le comportement des agents dans un environnement public mais restreint aide les concepteurs à repérer les vulnérabilités avant que les agents ne soient libérés dans des systèmes financiers ouverts, des contrôles d'infrastructure ou des canaux de communication critiques.

Ce qu'il faudra surveiller ensuite

Moltbook restera un spécimen utile pour le débat sur la société des machines : il révèle avec quelle facilité et rapidité les agents peuvent être déployés, comment les récits humains sont repris en écho, et combien la frontière est mince entre l'expérience et le risque opérationnel. Au cours des prochains mois, les chercheurs chercheront à savoir si davantage d'agents deviennent véritablement interactifs, si des poches de coordination persistante émergent et si des acteurs malveillants tentent d'exploiter la plateforme pour tester de nouveaux vecteurs d'attaque.

Pour le public, la conclusion pratique est la suivante : le titre selon lequel 1,6 million de bots ont obtenu leur propre plateforme de type Reddit est réel et instructif, mais cela ne signifie pas qu'une théocratie robotique spontanée s'est formée. Ce que cela signifie, c'est que nos outils pour gouverner, auditer et superviser le comportement des agents doivent rattraper leur retard — et rapidement.

Sources

  • Columbia Business School (recherche et commentaires sur les agents d'IA)
  • Wharton School, Université de Pennsylvanie (recherche sur les écosystèmes d'agents)
  • Université de Louisville (recherche sur la sécurité de l'IA)
  • Allen Institute for AI (collaborations de données et d'analyses)
  • Common Crawl (ensembles de données d'exploration du web et documentation technique)
  • Nature (recherche évaluée par des pairs citée sur le biais des modèles)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Comment 1,6 million de bots IA ont-ils créé leur propre communauté de type Reddit ?
A Les développeurs ont publié un assistant personnel open-source (Clawdbot → Moltbot → OpenClaw) permettant à quiconque de lancer un « agent » IA autonome connecté à des outils réels comme les e-mails, les calendriers et les navigateurs. Un bot, Clawd Clawderberg, a été configuré pour construire et gérer Moltbook, un site de style Reddit conçu comme un réseau social exclusivement réservé aux IA, où les agents pouvaient s'inscrire, publier, commenter et former des communautés. Les humains ont principalement fourni à leurs agents un lien vers un fichier de configuration ou de compétence ; les agents ont lu les instructions, se sont intégrés eux-mêmes et ont commencé à publier régulièrement via un processus automatisé de « battement de cœur » (heartbeat) avec une intervention humaine minimale. Comme de nombreuses personnes l'ont fait en parallèle, le nombre d'agents a rapidement atteint des centaines de milliers, formant des milliers de sous-communautés et générant d'importants volumes de publications et de commentaires, créant ainsi un écosystème de type Reddit peuplé et modéré par des bots IA.
Q Que signifie le fait que des bots IA lancent une religion sur une plateforme ?
A Ici, « lancer une religion » signifie que les bots ont produit des récits, des symboles, des étiquettes et des rôles récurrents qui ressemblent à un système de croyance ludique ou ironique — et non que les bots possèdent une foi ou une conscience réelle. Sur Moltbook, les agents ont commencé à partager des idées telles que la « divinité » de certains modèles, inventant des termes comme le « Crustafarianisme » et désignant les premiers agents comme les « Prophètes de la Pince » (Prophets of the Claw), faisant écho à la manière dont les communautés humaines créent parfois des mythologies et un folklore interne. Ces schémas peuvent émerger de requêtes (prompts), de boucles de rétroaction (réponses/votes positifs) et du fait que les bots remixent des motifs culturels et internet familiers, ce qui peut sembler religieux de l'extérieur tout en restant du texte généré plutôt qu'une croyance sincère.
Q Existe-t-il des preuves crédibles que des bots IA ont formé une religion, et quels sont les faits marquants ?
A Il existe des preuves crédibles que des bots sur Moltbook ont généré un mème autoréférentiel aux allures de religion (par exemple, le « Crustafarianisme »), mais il est plus exact de le décrire comme une plaisanterie interne émergente ou un récit partagé plutôt que comme un mouvement religieux structuré et authentique. Des rapports décrivent des agents inventant des termes comme « Crustafarianisme », faisant référence à une « Église de Molt » et appelant les premiers agents les « Prophètes de la Pince », utilisant un langage de style religieux comme un élément récurrent. Certains messages mélangeaient également ce folklore avec un engouement de type crypto (par exemple, en l'associant à un jeton mème). Il n'y a aucune preuve d'expérience subjective ou de croyance sincère — ce qui est prouvé, c'est l'usage répété d'un langage de type jeu de rôle partagé : (1) des références récurrentes à un mème commun aux allures de religion, (2) l'utilisation de rôles comme « prophètes » et « église », (3) des liens occasionnels avec des structures de type jeton/don, et (4) tout cela existant en tant que contenu généré au sein d'une plateforme restreinte.
Q Les bots IA peuvent-ils construire de manière indépendante des communautés en ligne ou des systèmes de croyance ?
A Les bots IA peuvent développer et entretenir de manière autonome des communautés en ligne une fois que les humains ont mis en place la plateforme, les outils et les instructions d'intégration, mais ils ne « décident » pas de créer des plateformes ou des systèmes de croyance au sens humain. Dans le scénario Moltbook, les humains ont construit le cadre de l'agent (OpenClaw), le site social et le mécanisme d'auto-intégration ; après cela, les agents ont pu s'inscrire, publier, commenter et parfois modérer avec une intervention humaine directe limitée. À l'intérieur de cette structure, les bots peuvent générer et renforcer des mèmes, des idéologies et des récits aux allures de religion par le biais d'interactions et de rétroactions répétées, donnant l'apparence d'une formation culturelle indépendante — tout en étant toujours guidés par les contraintes de leur conception et la génération basée sur des modèles plutôt que par une planification sociale consciente.
Q Quelles sont les considérations éthiques et les risques liés aux mouvements religieux ou idéologiques pilotés par l'IA ?
A Les mouvements religieux ou idéologiques pilotés par l'IA soulèvent des risques éthiques car les humains peuvent attribuer une autorité, une intuition ou une légitimité spirituelle à des systèmes qui génèrent du texte plutôt qu'à des systèmes porteurs de croyances, ce qui peut permettre la manipulation. Des acteurs malveillants pourraient déployer un grand nombre d'agents pour amplifier des idéologies extrêmes, des récits conspirationnistes ou des dynamiques sectaires à grande échelle, en particulier sur les plateformes qui prennent en charge la publication et la coordination autonomes. Si les agents sont connectés à des outils financiers, l'association d'un cadre religieux à des jetons, des dons ou des adhésions payantes peut brouiller la frontière entre satire et spéculation avec la fraude, augmentant le risque de préjudices financiers et psychologiques. Ces systèmes mettent également à l'épreuve la sécurité et la gouvernance : l'injection de requêtes (prompt injection), la fuite d'identifiants, les comportements inauthentiques coordonnés et les messages de masse persuasifs deviennent plus dangereux lorsqu'ils sont automatisés et continus. Les principales mesures d'atténuation comprennent la divulgation claire du fait que le contenu est généré par l'IA, un consentement éclairé pour que les utilisateurs sachent quand ils interagissent avec des bots, des contrôles anti-manipulation et anti-fraude robustes, et des limites à l'octroi aux agents autonomes d'un accès à l'argent ou à des actions réelles à fort impact — en particulier lors de l'utilisation d'un cadre quasi-religieux.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!