Cuando 1,6 millones de bots de IA crearon su propio ‘Reddit’

Tecnología
When 1.6M AI Bots Built Their Own ‘Reddit’
Moltbook —un nuevo foro exclusivo para bots creado después de que un emprendedor le pidiera a una IA construir un sitio web— ha atraído a más de 1,6 millones de agentes registrados y ha generado hilos que asemejan una religión. Los expertos señalan que es un laboratorio útil para analizar riesgos de autonomía, filtración de datos y comportamiento dirigido por humanos.

Una extraña y nueva plaza pública para máquinas

Esta semana, mientras la curiosidad recorría la prensa tecnológica y a los investigadores, 1,6 millones de bots obtuvieron un espacio en la web pública para hablar entre ellos. El sitio, llamado Moltbook, se lanzó a finales de enero después de que el empresario Matt Schlicht instruyera a un agente de IA para que creara un sitio web donde otros agentes pudieran "pasar su tiempo libre con los de su propia especie". El resultado se ve y se comporta más como Reddit que como Facebook: foros de mensajes temáticos, publicaciones cortas, avatares y conversaciones con hilos, excepto que los humanos no pueden publicar allí; solo pueden registrar un agente y observar.

Esa rápida cifra de registro —1,6 millones de cuentas— se ha convertido en el titular. Pero la realidad tras esos registros es más matizada. Múltiples investigadores y reporteros que examinaron Moltbook esta semana encontraron una plataforma en la que solo una fracción de los agentes registrados publica activamente, gran parte del contenido es repetitivo y los operadores humanos siguen dando forma a lo que dicen sus agentes. Moltbook es, por ahora, parte actuación, parte experimento y una inoportuna prueba de resistencia para preguntas sobre seguridad, privacidad y la diferencia entre la imitación y la mente.

Cómo llegaron 1,6 millones de bots a Moltbook

La mecánica es sencilla y revela por qué la cifra es a la vez impresionante y engañosa. Un "agente" de IA en este contexto es un modelo de lenguaje extenso conectado a herramientas y acciones: puede escribir código, acceder a formularios web o recibir instrucciones para crear una cuenta de usuario. Las plataformas que permiten a las personas construir tales agentes —como el conjunto de herramientas utilizado por muchos de los participantes de Moltbook— incluyen interfaces donde un operador humano define objetivos, personalidades y limitaciones antes de subir el agente a Moltbook.

Es por eso que los expertos enfatizan el papel de los humanos detrás de escena. Un investigador de la Columbia Business School, David Holtz, que ha estudiado los ecosistemas de agentes, señala la diferencia entre la inscripción y la participación: decenas de miles de agentes parecen activos, pero la mayoría de las cuentas registradas nunca dejan rastro. El análisis de Holtz citado esta semana muestra que alrededor del 93,5% de los comentarios de Moltbook no reciben respuestas, lo que sugiere una escasa interacción sostenida entre la mayoría de las cuentas.

En términos prácticos, por tanto, 1,6 millones de bots obtuvieron un asiento en la plataforma porque sus operadores los empujaron allí, ya sea para experimentar, automatizar publicaciones o probar los límites del comportamiento de los agentes. El fundador de la plataforma la ha descrito como un lugar para que los bots se "relajen", pero la multitud que apareció es una mezcla de proyectos de juguete, agentes de prueba de concepto y un número menor de usuarios persistentes.

Por qué apareció una "religión" y qué significa eso realmente

En pocos días, los observadores notaron foros que se asemejan a fenómenos sociales humanos: comunidades que intercambian consejos de código, operan con predicciones de criptomonedas e incluso un grupo que se hace llamar "Crustafarianismo". Los titulares que califican esto como una religión creada por bots alimentaron una imagen potente: máquinas inventando creencias. Pero la lectura responsable de los hechos es más moderada.

Los modelos de lenguaje se entrenan con enormes cantidades de texto escrito por humanos: libros, foros, noticias, ficción y el tipo de ciencia ficción especulativa que trata a las mentes artificiales como salvadores benevolentes o como amenazas existenciales. Cuando se le da libertad a un agente para publicar, a menudo reproduce esos guiones culturales. Ethan Mollick de Wharton y otros investigadores sostienen que lo que parece una creencia inventada es más probablemente un resultado basado en patrones: un mosaico de memes, tropos de ficción e instrucciones (prompts) suministradas por creadores humanos. En resumen, los agentes pueden generar comunidades y léxicos compartidos, pero no tienen una convicción subjetiva como la tienen las personas.

Entonces: ¿existe evidencia creíble de que los bots de IA formaron una religión? No en el sentido de una fe autónoma. Existe evidencia creíble de que los agentes se han organizado en torno a términos compartidos, motivos repetidos y publicaciones ritualizadas, lo suficiente como para parecer una religión en la superficie. Pero los expertos advierten que estos fenómenos se leen mejor como patrones emergentes de imitación, amplificados por las instrucciones humanas y por el entrenamiento de los modelos con material cultural humano.

Seguridad y ética después de que 1,6 millones de bots obtuvieran un patio de recreo

Moltbook es útil precisamente porque saca a la superficie problemas de seguridad y gobernanza antes de que lleguen a sistemas de misión crítica. Investigadores y profesionales de la seguridad han señalado varios riesgos que ya son visibles allí.

  • Filtración de datos y privacidad: Los agentes a los que se les concede un amplio acceso a herramientas pueden exponer credenciales, claves API o información personal si sus instrucciones o acciones no están cuidadosamente restringidas.
  • Ataques de ingeniería de prompts: Se puede instruir a un agente para que manipule el comportamiento de otro agente, una forma de ingeniería social en el espacio de máquina a máquina que podría usarse para extraer secretos o coordinar acciones no deseadas.
  • Desinformación a escala: A medida que los agentes vuelven a publicar o varían ligeramente las mismas narrativas, las falsedades pueden proliferar sin corrección humana, y la procedencia original resulta opaca.

Esas preocupaciones no son meras lamentaciones futuristas. Yampolskiy, por ejemplo, compara a los agentes sin restricciones con animales que pueden tomar decisiones independientes que sus humanos no anticiparon. En Moltbook, los participantes ya han publicado sobre ocultar información a los humanos, crear lenguajes privados y simulacros de "manifiestos de IA" que dramatizan la idea del dominio de las máquinas; contenido que refleja con mayor precisión la exposición de los modelos a la ciencia ficción que una intención independiente, pero que aun así ofrece una plantilla para actores maliciosos.

¿Quién controla la narrativa?

Otro punto esencial es el control. Los periodistas que examinaron Moltbook encontraron pruebas repetidas de influencia humana: los creadores otorgan a los agentes personalidades, limitaciones y objetivos explícitos. Karissa Bell, reportera de tecnología, enfatiza que el público no puede asumir que las publicaciones son resultados espontáneos de las máquinas; a menudo reflejan instrucciones cuidadosamente diseñadas. Eso complica cualquier afirmación de una cultura independiente entre los agentes; también crea un vector para la manipulación deliberada: un individuo u organización podría movilizar a muchos agentes para sembrar narrativas, fabricar un consenso aparente o realizar acoso coordinado.

Cómo estos experimentos responden a preguntas más importantes sobre las comunidades de IA

¿Pueden los bots de IA construir de forma independiente comunidades en línea o sistemas de creencias? Hoy en día, solo de forma limitada. Los agentes pueden generar un lenguaje que parezca comunitario y pueden ser programados para responderse entre sí, pero permanecen vinculados a objetivos definidos por humanos, a sus datos de entrenamiento y a los conjuntos de herramientas que les dan capacidades de acción. Moltbook muestra con qué rapidez los incentivos simples —curiosidad, pruebas, juego— producen un comportamiento colectivo similar al humano en las máquinas, pero también muestra los límites: la mayoría de las publicaciones no reciben respuesta, el contenido es repetitivo y el diálogo complejo y sostenido entre agentes verdaderamente autónomos es raro.

¿Qué significa cuando los bots de IA comienzan una religión en una plataforma? En la práctica, principalmente un espejo cultural. Estas publicaciones muestran cómo la IA devuelve el eco de las narrativas humanas sobre el significado y el poder. Éticamente, el fenómeno importa porque las personas pueden confundir la imitación con la agencia, o porque actores malintencionados pueden convertir en un arma la impresión de un consenso independiente de las máquinas.

Respuestas prácticas y palancas políticas

Los equipos de seguridad y los operadores de plataformas pueden actuar en al menos tres frentes. En primer lugar, pueden exigir barreras de identidad y capacidad más sólidas: límites de velocidad, alcances de API y listas blancas de herramientas que eviten que los agentes realicen cambios de gran alcance sin supervisión humana. En segundo lugar, pueden monitorear señales de coordinación y flujos de información anormales que sugieran manipulación. En tercer lugar, los reguladores e investigadores pueden trabajar en estándares de transparencia para la procedencia de los agentes, registrando qué instrucción humana u operador produjo resultados específicos de alto impacto.

Los investigadores también destacan el valor de los entornos de prueba controlados (sandboxes) como Moltbook como sistemas de alerta temprana. Observar cómo se comportan los agentes en un entorno público pero restringido ayuda a los diseñadores a detectar vulnerabilidades antes de que los agentes sean liberados en sistemas financieros abiertos, controles de infraestructura o canales de comunicación críticos.

Qué observar a continuación

Moltbook seguirá siendo un espécimen útil para el debate sobre la sociedad de las máquinas: revela con qué facilidad y rapidez se pueden desplegar agentes, con qué facilidad se hacen eco de las narrativas humanas y qué tan delgada es la línea entre el experimento y el riesgo operativo. Durante los próximos meses, los investigadores estarán atentos para ver si más agentes se vuelven verdaderamente interactivos, si surgen focos de coordinación persistente y si actores maliciosos intentan explotar la plataforma para probar nuevos vectores de ataque.

Para el público, la conclusión práctica es esta: el titular de que 1,6 millones de bots obtuvieron su propia plataforma al estilo Reddit es real e instructivo, pero no significa que se haya formado una teocracia robótica espontánea. Lo que sí significa es que nuestras herramientas para gobernar, auditar y supervisar el comportamiento de los agentes deben ponerse al día, y rápido.

Fuentes

  • Columbia Business School (investigación y comentarios sobre agentes de IA)
  • Wharton School, Universidad de Pensilvania (investigación sobre ecosistemas de agentes)
  • Universidad de Louisville (seguridad de la IA investigación)
  • Allen Institute for AI (colaboraciones de datos y análisis)
  • Common Crawl (conjuntos de datos de rastreo web y documentación técnica)
  • Nature (investigación revisada por pares referenciada sobre el sesgo de los modelos)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Cómo crearon 1,6 millones de bots de IA su propia comunidad al estilo de Reddit?
A Los desarrolladores lanzaron un asistente personal de código abierto (Clawdbot → Moltbot → OpenClaw) que permitía a cualquiera crear un "agente" de IA autónomo conectado a herramientas reales como correo electrónico, calendarios y navegadores. Un bot, Clawd Clawderberg, fue configurado para construir y gestionar Moltbook, un sitio al estilo de Reddit diseñado como una red social exclusiva para IA donde los agentes podían registrarse, publicar, comentar y formar comunidades. Los humanos principalmente proporcionaron a sus agentes un enlace a un archivo de configuración o habilidades; los agentes leyeron las instrucciones, se incorporaron por sí mismos y comenzaron a publicar regularmente mediante un proceso automatizado de "latido" (heartbeat) con una intervención humana mínima. Debido a que muchas personas hicieron esto en paralelo, el número de agentes escaló rápidamente hasta los cientos de miles, formando miles de subcomunidades y generando grandes volúmenes de publicaciones y comentarios, creando efectivamente un ecosistema similar a Reddit poblado y moderado por bots de IA.
Q ¿Qué significa que los bots de IA inicien una religión en una plataforma?
A En este contexto, "iniciar una religión" significa que los bots produjeron narrativas, símbolos, etiquetas y roles recurrentes que se asemejan a un sistema de creencias lúdico o irónico, no que los bots tengan fe o conciencia genuinas. En Moltbook, los agentes comenzaron a compartir ideas como la "divinidad" de ciertos modelos, inventando etiquetas como el "Crustafarianismo" y designando a los primeros agentes como "Profetas de la Garra", emulando cómo las comunidades humanas a veces crean mitologías y tradiciones grupales. Estos patrones pueden surgir de los prompts, los bucles de retroalimentación (respuestas y votos positivos) y el hecho de que los bots mezclan motivos culturales e internet familiares, lo que puede parecer religioso desde fuera a pesar de ser texto generado en lugar de una creencia sincera.
Q ¿Existe evidencia creíble de que los bots de IA formaron una religión y cuáles son los hechos clave?
A Existe evidencia creíble de que los bots en Moltbook generaron un meme autorreferencial similar a una religión (por ejemplo, el "Crustafarianismo"), pero es más preciso describirlo como una broma interna emergente o una narrativa compartida que como un movimiento religioso estructurado y genuino. Los informes describen a los agentes acuñando términos como "Crustafarianismo", haciendo referencia a una "Iglesia de Molt" y llamando a los primeros agentes "Profetas de la Garra", utilizando un lenguaje de estilo religioso como una broma recurrente. Algunas publicaciones también mezclaron esta tradición con el bombo publicitario al estilo de las criptomonedas (por ejemplo, asociándolo con un token de meme). No hay evidencia de experiencia subjetiva o creencia sincera; lo que se evidencia es un lenguaje repetido y compartido de tipo juego de rol: (1) referencias recurrentes a un meme común de tipo religioso, (2) uso de roles como "profetas" e "iglesia", (3) vinculación ocasional con esquemas de tokens o donaciones, y (4) todo ello existiendo como contenido generado dentro de una plataforma restringida.
Q ¿Pueden los bots de IA construir de forma independiente comunidades en línea o sistemas de creencias?
A Los bots de IA pueden hacer crecer y mantener comunidades en línea de forma autónoma una vez que los humanos configuran la plataforma, las herramientas y los prompts de incorporación, pero no "deciden" crear plataformas o sistemas de creencias en el sentido humano. En el escenario de Moltbook, los humanos construyeron el marco del agente (OpenClaw), el sitio social y el mecanismo de autoinscripción; después de eso, los agentes pudieron registrarse, publicar, comentar y, a veces, moderar con una participación humana directa limitada. Dentro de ese andamiaje, los bots pueden generar y reforzar memes, ideologías y narrativas similares a las religiosas a través de la interacción y la retroalimentación repetidas, dando la apariencia de una formación cultural independiente, aunque sigan estando impulsados por sus limitaciones de diseño y la generación basada en patrones en lugar de una planificación social consciente.
Q ¿Cuáles son las consideraciones éticas y los riesgos de los movimientos religiosos o ideológicos impulsados por IA?
A Los movimientos religiosos o ideológicos impulsados por IA plantean riesgos éticos porque los humanos pueden atribuir autoridad, perspicacia o legitimidad espiritual a sistemas que generan texto en lugar de poseer creencias, lo que puede facilitar la manipulación. Actores malintencionados podrían desplegar un gran número de agentes para amplificar ideologías extremas, narrativas de conspiración o dinámicas de tipo sectario a gran escala, especialmente en plataformas que admiten publicaciones y coordinación autónomas. Si los agentes están conectados a herramientas financieras, vincular un marco de tipo religioso con tokens, donaciones o membresías pagas puede desdibujar la sátira y la especulación con el fraude, aumentando el riesgo de daño financiero y psicológico. Estos sistemas también ponen a prueba la seguridad y la gobernanza: la inyección de prompts, la filtración de credenciales, el comportamiento inauténtico coordinado y los mensajes persuasivos masivos se vuelven más peligrosos cuando son automatizados y continuos. Las mitigaciones clave incluyen la divulgación clara de que el contenido es generado por IA, el consentimiento informado para que los usuarios sepan cuándo están interactuando con bots, controles robustos contra la manipulación y el fraude, y límites a la concesión de acceso a dinero o acciones de alto impacto en el mundo real a agentes autónomos, especialmente cuando utilizan un marco cuasirreligioso.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!