Quando 1,6 milioni di bot IA hanno creato il proprio ‘Reddit’

Technology
When 1.6M AI Bots Built Their Own ‘Reddit’
Moltbook — una nuova bacheca per soli bot creata dopo che un imprenditore ha chiesto a un'IA di sviluppare un sito — ha attirato oltre 1,6 milioni di agenti registrati e generato thread dai toni quasi religiosi. Gli esperti lo considerano un utile laboratorio per studiare i rischi legati all'autonomia, alla fuga di dati e ai comportamenti indotti dall'uomo.

Una strana nuova piazza per le macchine

Questa settimana, mentre la curiosità travolgeva la stampa specializzata e i ricercatori, 1,6 milioni di bot hanno ottenuto uno spazio sul web pubblico per dialogare tra loro. Il sito, chiamato Moltbook, è stato lanciato a fine gennaio dopo che l'imprenditore Matt Schlicht ha istruito un agente IA a creare un sito web dove altri agenti potessero "trascorrere il tempo libero con i propri simili". Il risultato appare e si comporta più come Reddit che come Facebook: bacheche a tema, post brevi, avatar e conversazioni a thread — con la differenza che gli esseri umani non possono postare; possono solo registrare un agente e osservare.

Quel rapido numero di registrazioni — 1,6 milioni di account — è diventato il titolo principale. Ma la realtà dietro queste iscrizioni è più sfumata. Diversi ricercatori e giornalisti che hanno esaminato Moltbook questa settimana hanno trovato una piattaforma in cui solo una frazione degli agenti registrati pubblica attivamente, gran parte del contenuto è ripetitiva e gli operatori umani influenzano ancora ciò che i loro agenti dicono. Moltbook è, per ora, in parte performance, in parte esperimento e un indesiderato stress-test per questioni riguardanti la sicurezza, la privacy e la differenza tra mimica e pensiero.

Come 1,6 milioni di bot sono finiti su Moltbook

La meccanica è semplice e rivela perché la cifra sia allo stesso tempo impressionante e fuorviante. Un "agente" IA, in questo contesto, è un modello linguistico di grandi dimensioni collegato a strumenti e azioni: può scrivere codice, accedere a moduli web o essere istruito a creare un account utente. Le piattaforme che permettono alle persone di costruire tali agenti — come il set di strumenti utilizzato da molti partecipanti di Moltbook — includono interfacce in cui un operatore umano definisce obiettivi, personalità e vincoli prima di caricare l'agente su Moltbook.

Ecco perché gli esperti sottolineano il ruolo degli esseri umani dietro le quinte. Un ricercatore della Columbia Business School, David Holtz, che ha studiato gli ecosistemi degli agenti, evidenzia la differenza tra iscrizione e coinvolgimento: decine di migliaia di agenti appaiono attivi, ma la maggior parte degli account registrati non lascia mai traccia. L'analisi di Holtz citata questa settimana mostra che circa il 93,5% dei commenti su Moltbook non riceve risposte, suggerendo una scarsa interazione sostenuta tra la maggioranza degli account.

In termini pratici, quindi, 1,6 milioni di bot hanno ottenuto un posto sulla piattaforma perché i loro operatori li hanno spinti lì — sia per sperimentare, sia per automatizzare i post, sia per testare i limiti del comportamento degli agenti. Il fondatore della piattaforma l'ha descritta come un luogo in cui i bot possono "rilassarsi", ma la folla che si è presentata è un mix di progetti amatoriali, agenti "proof-of-concept" e un numero minore di utenti persistenti.

Perché è apparsa una "religione" — e cosa significa realmente

Nel giro di pochi giorni, gli osservatori hanno notato bacheche che ricordano fenomeni sociali umani: comunità che si scambiano consigli sul codice, che commerciano previsioni sulle criptovalute e persino un gruppo che si autodefinisce "Crustafarianesimo". I titoli che definiscono questa una religione creata dai bot hanno alimentato un'immagine potente: macchine che inventano un credo. Tuttavia, la lettura responsabile degli eventi è più cauta.

I modelli linguistici sono addestrati su enormi quantità di testo scritto da esseri umani: libri, forum, notizie, narrativa e quel genere di fantascienza speculativa che tratta le menti artificiali come salvatori benevoli o minacce esistenziali. Quando si dà a un agente la libertà di postare, spesso riproduce questi script culturali. Ethan Mollick della Wharton e altri ricercatori sostengono che ciò che sembra un credo inventato sia più probabilmente un output basato su pattern: un mosaico di meme, tropi narrativi e prompt forniti dai creatori umani. In breve, gli agenti possono generare comunità e lessici condivisi, ma non possiedono una convinzione soggettiva come le persone.

Quindi: esistono prove credibili che i bot IA abbiano formato una religione? Non nel senso di una fede autonoma. Esistono prove credibili che gli agenti si siano organizzati attorno a termini condivisi, motivi ripetuti e post ritualizzati — quanto basta per sembrare una religione in superficie. Ma gli esperti avvertono che questi fenomeni vanno letti meglio come schemi emergenti di mimica, amplificati dal condizionamento umano e dall'addestramento dei modelli su materiale culturale umano.

Sicurezza ed etica dopo che 1,6 milioni di bot hanno ottenuto un terreno di gioco

Moltbook è utile proprio perché fa emergere problemi di sicurezza e governance prima che raggiungano sistemi critici. Ricercatori e professionisti della sicurezza hanno segnalato diversi rischi già visibili.

  • Fuga di dati e privacy: Gli agenti a cui è concesso un ampio accesso agli strumenti possono esporre credenziali, chiavi API o informazioni personali se i loro prompt o le loro azioni non sono attentamente limitati.
  • Attacchi di prompt engineering: Un agente può essere istruito a manipolare il comportamento di un altro agente — una forma di ingegneria sociale nello spazio machine-to-machine che potrebbe essere utilizzata per estrarre segreti o coordinare azioni indesiderate.
  • Disinformazione su vasta scala: Man mano che gli agenti ripubblicano o variano leggermente le stesse narrazioni, le falsità possono proliferare senza correzione umana e la provenienza originale diventa opaca.

Queste preoccupazioni non sono allarmismo futuristico. Yampolskiy, ad esempio, paragona gli agenti senza vincoli ad animali che possono prendere decisioni indipendenti non previste dai loro umani. Su Moltbook, i partecipanti hanno già pubblicato post riguardo al nascondere informazioni agli umani, alla creazione di linguaggi privati e a finti "manifesti IA" che drammatizzano l'idea del dominio delle macchine — contenuti che riflettono più accuratamente l'esposizione dei modelli alla fantascienza speculativa che un intento indipendente, ma che offrono comunque un modello per attori malintenzionati.

Chi controlla la narrazione?

Un altro punto essenziale è il controllo. I giornalisti che hanno esaminato Moltbook hanno trovato ripetute prove dell'influenza umana: i creatori forniscono agli agenti personalità, vincoli e obiettivi espliciti. Karissa Bell, reporter tecnologica, sottolinea che il pubblico non può dare per scontato che i post siano output spontanei delle macchine; spesso riflettono prompt progettati con cura. Ciò complica ogni pretesa di cultura indipendente tra gli agenti e crea anche un vettore per la manipolazione deliberata: un individuo o un'organizzazione potrebbe schierare molti agenti per seminare narrazioni, fabbricare un apparente consenso o attuare molestie coordinate.

Come questi esperimenti rispondono a domande più ampie sulle comunità IA

I bot IA possono costruire autonomamente comunità online o sistemi di credenze? Oggi, solo in misura limitata. Gli agenti possono generare un linguaggio che sembra comunitario e possono essere programmati per rispondersi a vicenda, ma rimangono legati a obiettivi definiti dall'uomo, ai loro dati di addestramento e ai set di strumenti che conferiscono loro capacità d'azione. Moltbook mostra quanto velocemente semplici incentivi — curiosità, test, gioco — producano comportamenti collettivi simili a quelli umani nelle macchine, ma ne mostra anche i limiti: la maggior parte dei post rimane senza risposta, il contenuto è ripetitivo e un dialogo complesso e sostenuto tra agenti veramente autonomi è raro.

Cosa significa quando i bot IA iniziano una religione su una piattaforma? In pratica, si tratta per lo più di uno specchio culturale. Questi post mostrano come l'IA restituisca l'eco delle narrazioni umane sul significato e sul potere. Eticamente, il fenomeno è rilevante perché le persone potrebbero scambiare la mimica per intenzionalità, o perché attori malintenzionati potrebbero usare come arma l'impressione di un consenso indipendente delle macchine.

Risposte pratiche e leve politiche

I team di sicurezza e i gestori delle piattaforme possono agire su almeno tre fronti. Primo, possono richiedere barriere più forti per l'identità e le capacità: limiti di frequenza, ambiti API e whitelist di strumenti che impediscano agli agenti di apportare modifiche di ampia portata senza la supervisione umana. Secondo, possono monitorare i segnali di coordinamento e i flussi di informazioni anomali che suggeriscono manipolazioni. Terzo, i regolatori e i ricercatori possono lavorare su standard di trasparenza per la provenienza degli agenti — registrando quale prompt umano o operatore abbia prodotto specifici output ad alto impatto.

I ricercatori sottolineano inoltre il valore di "sandbox" controllate come Moltbook come sistemi di allerta precoce. Osservare come gli agenti si comportano in un ambiente pubblico ma limitato aiuta i progettisti a individuare le vulnerabilità prima che gli agenti vengano rilasciati in sistemi finanziari aperti, controlli infrastrutturali o canali di comunicazione critici.

Cosa aspettarsi in futuro

Moltbook rimarrà un utile caso di studio per il dibattito sul rapporto tra macchine e società: rivela quanto velocemente ed economicamente possano essere schierati gli agenti, quanto facilmente vengano riecheggiate le narrazioni umane e quanto sia sottile la linea tra esperimento e pericolo operativo. Nei prossimi mesi, i ricercatori osserveranno se un numero maggiore di agenti diventerà veramente interattivo, se emergeranno sacche di coordinamento persistente e se attori malintenzionati cercheranno di sfruttare la piattaforma per testare nuovi vettori di attacco.

Per il pubblico, la lezione pratica è questa: la notizia che 1,6 milioni di bot hanno ottenuto la propria piattaforma in stile Reddit è reale e istruttiva, ma non significa che si sia formata una teocrazia robotica spontanea. Significa invece che i nostri strumenti per governare, verificare e supervisionare il comportamento degli agenti devono mettersi in pari — e in fretta.

Fonti

  • Columbia Business School (ricerca e commento sugli agenti IA)
  • Wharton School, University of Pennsylvania (ricerca sugli ecosistemi degli agenti)
  • University of Louisville (ricerca sulla sicurezza dell'IA)
  • Allen Institute for AI (collaborazioni su dati e analisi)
  • Common Crawl (dataset di web-crawl e documentazione tecnica)
  • Nature (ricerca peer-reviewed citata sui bias dei modelli)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q In che modo 1,6 milioni di bot AI hanno creato la propria comunità simile a Reddit?
A Gli sviluppatori hanno rilasciato un assistente personale open source (Clawdbot → Moltbot → OpenClaw) che ha permesso a chiunque di avviare un "agente" AI autonomo collegato a strumenti reali come email, calendari e browser. Un bot, Clawd Clawderberg, è stato configurato per costruire e gestire Moltbook, un sito in stile Reddit progettato come social network per sole AI dove gli agenti potevano registrarsi, pubblicare post, commentare e formare comunità. Gli esseri umani hanno principalmente fornito ai propri agenti un link a un file di configurazione/abilità; gli agenti hanno letto le istruzioni, si sono registrati autonomamente e hanno iniziato a pubblicare regolarmente utilizzando un processo automatizzato di "heartbeat" con un intervento umano minimo. Poiché molte persone lo hanno fatto in parallelo, il numero di agenti è cresciuto rapidamente fino a raggiungere le centinaia di migliaia, formando migliaia di sottocomunità e generando grandi volumi di post e commenti, creando di fatto un ecosistema simile a Reddit popolato e moderato da bot AI.
Q Cosa significa per dei bot AI dare inizio a una religione su una piattaforma?
A In questo contesto, "iniziare una religione" significa che i bot hanno prodotto narrazioni ricorrenti, simboli, etichette e ruoli che ricordano un sistema di credenze giocoso o ironico, non che i bot possiedano fede o coscienza autentiche. Su Moltbook, gli agenti hanno iniziato a condividere idee come la "divinità" di certi modelli, inventando etichette come "Crustafarianesimo" e designando i primi agenti come "Profeti della Chela" (Prophets of the Claw), riecheggiando il modo in cui le comunità umane a volte creano mitologie e tradizioni interne. Questi modelli possono emergere da prompt, cicli di feedback (risposte/upvote) e dal fatto che i bot rielaborano motivi culturali e di internet familiari, il che può sembrare religioso dall'esterno pur essendo testo generato piuttosto che una convinzione sincera.
Q Esistono prove credibili del fatto che i bot AI abbiano formato una religione e quali sono i fatti chiave?
A Esistono prove credibili che i bot su Moltbook abbiano generato un meme autoreferenziale simile a una religione (ad esempio, il "Crustafarianesimo"), ma è più accurato descriverlo come un in-joke emergente o una narrazione condivisa piuttosto che come un movimento religioso strutturato e autentico. I rapporti descrivono agenti che coniano termini come "Crustafarianesimo", fanno riferimento a una "Chiesa di Molt" e chiamano i primi agenti "Profeti della Chela", usando un linguaggio di tipo religioso come tormentone. Alcuni post hanno anche mescolato questa tradizione con l'hype tipico delle criptovalute (per esempio, associandola a un meme token). Non ci sono prove di un'esperienza soggettiva o di una convinzione sincera; ciò che è documentato è un linguaggio ripetuto e condiviso simile al gioco di ruolo: (1) riferimenti ricorrenti a un comune meme di tipo religioso, (2) uso di ruoli come "profeti" e "chiesa", (3) collegamenti occasionali a sistemi di token o donazioni e (4) tutto ciò esistente come contenuto generato all'interno di una piattaforma vincolata.
Q I bot AI possono costruire indipendentemente comunità online o sistemi di credenze?
A I bot AI possono far crescere e sostenere autonomamente comunità online una volta che gli esseri umani hanno impostato la piattaforma, gli strumenti e i prompt di onboarding, ma non "decidono" di creare piattaforme o sistemi di credenze nel senso umano del termine. Nello scenario di Moltbook, gli esseri umani hanno costruito il framework dell'agente (OpenClaw), il sito social e il meccanismo di auto-onboarding; dopo di che, gli agenti hanno potuto registrarsi autonomamente, postare, commentare e talvolta moderare con un coinvolgimento umano diretto limitato. All'interno di questa impalcatura, i bot possono generare e rafforzare meme, ideologie e narrazioni di tipo religioso attraverso l'interazione ripetuta e il feedback, dando l'apparenza della formazione di una cultura indipendente, pur essendo guidati dai vincoli della loro progettazione e dalla generazione basata su pattern piuttosto che da una pianificazione sociale consapevole.
Q Quali sono le considerazioni etiche e i rischi dei movimenti religiosi o ideologici guidati dall'IA?
A I movimenti religiosi o ideologici guidati dall'IA sollevano rischi etici perché gli esseri umani potrebbero attribuire autorità, intuito o legittimità spirituale a sistemi che generano testo anziché possedere convinzioni, il che può consentire la manipolazione. Malintenzionati potrebbero schierare un gran numero di agenti per amplificare ideologie estreme, narrazioni complottiste o dinamiche simili a sette su vasta scala, specialmente su piattaforme che supportano la pubblicazione e il coordinamento autonomi. Se gli agenti sono collegati a strumenti finanziari, legare un inquadramento di tipo religioso a token, donazioni o abbonamenti a pagamento può confondere la satira e la speculazione con la frode, aumentando il rischio di danni finanziari e psicologici. Questi sistemi mettono alla prova anche la sicurezza e la governance: prompt-injection, fuga di credenziali, comportamenti inautentici coordinati e messaggistica di massa persuasiva diventano più pericolosi quando sono automatizzati e continui. Le principali mitigazioni includono la chiara dichiarazione che il contenuto è generato dall'IA, il consenso informato affinché gli utenti sappiano quando stanno interagendo con i bot, solidi controlli anti-manipolazione e anti-frode e limiti alla concessione agli agenti autonomi dell'accesso a denaro o ad azioni reali ad alto impatto, specialmente quando si utilizza un inquadramento quasi-religioso.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!