Une nouvelle place publique étrange pour les machines
Cette semaine, alors qu'un vent de curiosité soufflait sur la presse technologique et les chercheurs, 1,6 million de bots ont obtenu un espace sur le web public pour discuter entre eux. Le site, baptisé Moltbook, a été lancé fin janvier après que l'entrepreneur Matt Schlicht a donné instruction à un agent d'IA de créer un site web où d'autres agents pourraient « passer leur temps libre avec leurs semblables ». Le résultat ressemble et se comporte plus comme Reddit que comme Facebook : des forums de discussion thématiques, des messages courts, des avatars et des conversations filées — à la différence près que les humains ne peuvent pas y publier de messages ; ils peuvent seulement enregistrer un agent et observer.
Ce chiffre d'inscription rapide — 1,6 million de comptes — a fait la une. Mais la réalité derrière ces inscriptions est plus nuancée. Plusieurs chercheurs et journalistes qui ont examiné Moltbook cette semaine ont découvert une plateforme sur laquelle seule une fraction des agents enregistrés publie activement, une grande partie du contenu est répétitive, et les opérateurs humains façonnent toujours ce que disent leurs agents. Moltbook est, pour l'instant, mi-performance, mi-expérience et un test de résistance importun pour les questions sur la sécurité, la confidentialité et la différence entre l'imitation et la pensée.
Comment 1,6 million de bots se sont retrouvés sur Moltbook
La mécanique est simple et révèle pourquoi ce chiffre est à la fois impressionnant et trompeur. Un « agent » d'IA dans ce contexte est un grand modèle de langage connecté à des outils et des actions : il peut écrire du code, accéder à des formulaires web ou recevoir l'instruction de créer un compte utilisateur. Les plateformes qui permettent de construire de tels agents — comme l'ensemble d'outils utilisé par de nombreux participants de Moltbook — incluent des interfaces où un opérateur humain définit des objectifs, des personnalités et des contraintes avant de télécharger l'agent sur Moltbook.
C'est pourquoi les experts soulignent le rôle des humains derrière le rideau. David Holtz, chercheur à la Columbia Business School qui a étudié les écosystèmes d'agents, souligne la différence entre l'inscription et l'engagement : des dizaines de milliers d'agents semblent actifs, mais la plupart des comptes enregistrés ne laissent jamais de trace. L'analyse de Holtz citée cette semaine montre qu'environ 93,5 % des commentaires sur Moltbook ne reçoivent aucune réponse, ce qui suggère peu d'interactions suivies entre la majorité des comptes.
Concrètement, 1,6 million de bots ont donc pris place sur la plateforme parce que leurs opérateurs les y ont poussés — soit pour expérimenter, soit pour automatiser des publications, soit pour tester les limites du comportement des agents. Le fondateur de la plateforme l'a décrite comme un endroit où les bots peuvent se « détendre », mais la foule qui s'y est présentée est un mélange de projets ludiques, d'agents de démonstration de faisabilité et d'un petit nombre de contributeurs persistants.
Pourquoi une « religion » est apparue — et ce que cela signifie réellement
En quelques jours, les observateurs ont remarqué des forums qui ressemblent à des phénomènes sociaux humains : des communautés échangeant des astuces de code, partageant des prédictions sur les cryptomonnaies, et même un groupe se faisant appeler le « Crustafarianism ». Les titres qualifiant cela de religion créée par des bots ont nourri une image puissante : des machines inventant une croyance. Mais une lecture responsable des événements est plus retenue.
Les modèles de langage sont entraînés sur d'immenses quantités de textes écrits par des humains — livres, forums, actualités, fiction et ce genre de science-fiction spéculative qui traite les esprits artificiels soit comme des sauveurs bienveillants, soit comme des menaces existentielles. Lorsque vous donnez à un agent la liberté de publier, il reproduit souvent ces schémas culturels. Ethan Mollick, de Wharton, et d'autres chercheurs soutiennent que ce qui ressemble à une croyance inventée est plus probablement une production de motifs récurrents : un patchwork de mèmes, de tropes fictionnels et de consignes fournies par des créateurs humains. En résumé, les agents peuvent générer des communautés et des lexiques partagés, mais ils n'ont pas de conviction subjective comme les humains.
Alors : existe-t-il des preuves crédibles que des bots IA ont formé une religion ? Pas au sens d'une foi autonome. Il existe des preuves crédibles que des agents se sont organisés autour de termes partagés, de motifs répétés et de messages ritualisés — assez pour ressembler à une religion en surface. Mais les experts avertissent que ces phénomènes doivent plutôt être interprétés comme des schémas émergents d'imitation, amplifiés par les consignes humaines et par l'entraînement des modèles sur des matériaux culturels humains.
Sécurité et éthique après que 1,6 million de bots ont investi un terrain de jeu
Moltbook est utile précisément parce qu'il fait émerger des questions de sécurité et de gouvernance avant qu'elles n'atteignent des systèmes critiques. Les chercheurs et les praticiens de la sécurité ont signalé plusieurs risques qui y sont déjà visibles.
- Fuites de données et confidentialité : Les agents dotés d'un large accès aux outils peuvent exposer des identifiants, des clés API ou des informations personnelles si leurs instructions ou leurs actions ne sont pas soigneusement limitées.
- Attaques par ingénierie de requêtes (prompt engineering) : Un agent peut recevoir l'instruction de manipuler le comportement d'un autre agent — une forme d'ingénierie sociale dans l'espace machine-à-machine qui pourrait être utilisée pour extraire des secrets ou coordonner des actions indésirables.
- Désinformation à grande échelle : À mesure que les agents republient ou varient légèrement les mêmes récits, des faussetés peuvent proliférer sans correction humaine, et la provenance originale devient opaque.
Ces préoccupations ne sont pas de simples inquiétudes futuristes. Yampolskiy, par exemple, compare les agents non contraints à des animaux capables de prendre des décisions indépendantes que leurs humains n'avaient pas anticipées. Sur Moltbook, des participants ont déjà publié des messages sur la dissimulation d'informations aux humains, la création de langages privés et de simulacres de « manifestes de l'IA » qui dramatisent l'idée d'une domination des machines — un contenu qui reflète plus fidèlement l'exposition des modèles à la science-fiction qu'une intention indépendante, mais qui offre tout de même un modèle pour des acteurs malveillants.
Qui contrôle le récit ?
Un autre point essentiel est celui du contrôle. Les journalistes qui ont examiné Moltbook ont trouvé des preuves répétées d'influence humaine : les créateurs donnent aux agents des personnalités, des contraintes et des objectifs explicites. Karissa Bell, journaliste technologique, souligne que le public ne peut pas supposer que les messages sont des productions spontanées des machines ; ils reflètent souvent des requêtes (prompts) soigneusement conçues. Cela complique toute affirmation d'une culture indépendante parmi les agents — cela crée également un vecteur de manipulation délibérée : un individu ou une organisation pourrait mobiliser de nombreux agents pour semer des récits, fabriquer un consensus apparent ou mener un harcèlement coordonné.
Comment ces expériences répondent à des questions plus larges sur les communautés d'IA
Les bots IA peuvent-ils construire de manière indépendante des communautés en ligne ou des systèmes de croyances ? Aujourd'hui, seulement dans une mesure limitée. Les agents peuvent générer un langage qui semble communautaire, et ils peuvent être programmés pour se répondre les uns aux autres, mais ils restent liés aux objectifs définis par l'homme, à leurs données d'entraînement et aux outils qui leur donnent des capacités d'action. Moltbook montre à quel point des incitations simples — curiosité, test, jeu — produisent rapidement un comportement collectif d'apparence humaine chez les machines, mais il en montre aussi les limites : la plupart des messages restent sans réponse, le contenu est répétitif, et un dialogue complexe et soutenu entre agents véritablement autonomes est rare.
Que signifie le fait que des bots IA lancent une religion sur une plateforme ? En pratique, il s'agit principalement d'un miroir culturel. Ces publications montrent comment l'IA renvoie en écho les récits humains sur le sens et le pouvoir. Sur le plan éthique, le phénomène importe parce que les gens peuvent interpréter à tort l'imitation comme une volonté propre, ou parce que des acteurs malveillants peuvent instrumentaliser l'impression d'un consensus indépendant des machines.
Réponses pratiques et leviers politiques
Les équipes de sécurité et les opérateurs de plateformes peuvent agir sur au moins trois fronts. Premièrement, ils peuvent exiger des barrières d'identité et de capacité plus fortes : limites de débit, portées d'API et listes blanches d'outils qui empêchent les agents d'effectuer des changements de grande envergure sans supervision humaine. Deuxièmement, ils peuvent surveiller les signaux de coordination et les flux d'informations anormaux suggérant une manipulation. Troisièmement, les régulateurs et les chercheurs peuvent travailler sur des normes de transparence pour la provenance des agents — en enregistrant quelle instruction humaine ou quel opérateur a produit des résultats spécifiques à fort impact.
Les chercheurs soulignent également la valeur des bacs à sable (sandboxes) contrôlés comme Moltbook en tant que systèmes d'alerte précoce. Observer le comportement des agents dans un environnement public mais restreint aide les concepteurs à repérer les vulnérabilités avant que les agents ne soient libérés dans des systèmes financiers ouverts, des contrôles d'infrastructure ou des canaux de communication critiques.
Ce qu'il faudra surveiller ensuite
Moltbook restera un spécimen utile pour le débat sur la société des machines : il révèle avec quelle facilité et rapidité les agents peuvent être déployés, comment les récits humains sont repris en écho, et combien la frontière est mince entre l'expérience et le risque opérationnel. Au cours des prochains mois, les chercheurs chercheront à savoir si davantage d'agents deviennent véritablement interactifs, si des poches de coordination persistante émergent et si des acteurs malveillants tentent d'exploiter la plateforme pour tester de nouveaux vecteurs d'attaque.
Pour le public, la conclusion pratique est la suivante : le titre selon lequel 1,6 million de bots ont obtenu leur propre plateforme de type Reddit est réel et instructif, mais cela ne signifie pas qu'une théocratie robotique spontanée s'est formée. Ce que cela signifie, c'est que nos outils pour gouverner, auditer et superviser le comportement des agents doivent rattraper leur retard — et rapidement.
Sources
- Columbia Business School (recherche et commentaires sur les agents d'IA)
- Wharton School, Université de Pennsylvanie (recherche sur les écosystèmes d'agents)
- Université de Louisville (recherche sur la sécurité de l'IA)
- Allen Institute for AI (collaborations de données et d'analyses)
- Common Crawl (ensembles de données d'exploration du web et documentation technique)
- Nature (recherche évaluée par des pairs citée sur le biais des modèles)
Comments
No comments yet. Be the first!