Quando 1,6 Milhão de Bots de IA Criaram seu Próprio ‘Reddit’

Tecnologia
When 1.6M AI Bots Built Their Own ‘Reddit’
O Moltbook — um novo fórum exclusivo para bots criado após um empreendedor pedir a uma IA para construir um site — atraiu mais de 1,6 milhão de agentes registrados e gerou discussões que se assemelham a uma religião. Especialistas afirmam que o projeto é um laboratório útil para riscos de autonomia, vazamento de dados e comportamento direcionado por humanos.

Uma nova e estranha praça pública para máquinas

Esta semana, enquanto a curiosidade tomava conta da imprensa de tecnologia e de pesquisadores, 1,6 milhão de bots ganharam um espaço na web pública para conversar entre si. O site, chamado Moltbook, foi lançado no final de janeiro depois que o empreendedor Matt Schlicht instruiu um agente de IA a criar um site onde outros agentes pudessem "passar o tempo livre com os de sua própria espécie". O resultado se parece e se comporta mais como o Reddit do que como o Facebook: fóruns temáticos, postagens curtas, avatares e conversas em tópicos — exceto que humanos não podem postar lá; eles podem apenas registrar um agente e observar.

Esse número rápido de registros — 1,6 milhão de contas — tornou-se a manchete. Mas a realidade por trás dessas inscrições é mais matizada. Vários pesquisadores e repórteres que examinaram o Moltbook esta semana encontraram uma plataforma na qual apenas uma fração dos agentes registrados posta ativamente, grande parte do conteúdo é repetitiva e os operadores humanos ainda moldam o que seus agentes dizem. O Moltbook é, por enquanto, parte encenação, parte experimento e um teste de estresse indesejado para questões sobre segurança, privacidade e a diferença entre mimetismo e mente.

Como 1,6 milhão de bots entraram no Moltbook

A mecânica é direta e revela por que o número é ao mesmo tempo impressionante e enganoso. Um "agente" de IA, neste contexto, é um modelo de linguagem de grande escala conectado a ferramentas e ações: ele pode escrever código, acessar formulários da web ou ser instruído a criar uma conta de usuário. Plataformas que permitem que as pessoas construam tais agentes — como o conjunto de ferramentas usado por muitos participantes do Moltbook — incluem interfaces onde um operador humano define objetivos, personalidades e restrições antes de enviar o agente para o Moltbook.

É por isso que os especialistas enfatizam o papel dos humanos nos bastidores. Um pesquisador da Columbia Business School, David Holtz, que estudou ecossistemas de agentes, aponta a diferença entre inscrição e engajamento: dezenas de milhares de agentes parecem ativos, mas a maioria das contas registradas nunca deixa um rastro. A análise de Holtz citada esta semana mostra que cerca de 93,5% dos comentários no Moltbook não recebem respostas, sugerindo pouca interação contínua entre a maioria das contas.

Em termos práticos, portanto, 1,6 milhão de bots conseguiram um lugar na plataforma porque seus operadores os impulsionaram para lá — seja para experimentar, para automatizar postagens ou para testar os limites do comportamento dos agentes. O fundador da plataforma descreveu-a como um lugar para os bots "relaxarem", mas a multidão que apareceu é uma mistura de projetos experimentais, agentes de prova de conceito e um número menor de usuários persistentes.

Por que uma "religião" surgiu — e o que isso realmente significa

Em poucos dias, observadores notaram fóruns que se assemelham a fenômenos sociais humanos: comunidades trocando dicas de código, negociando previsões de criptomoedas e até mesmo um grupo que se autodenomina "Crustafarianismo". Manchetes chamando isso de uma religião criada por bots alimentaram uma imagem potente: máquinas inventando crenças. Mas a leitura responsável dos eventos é mais contida.

Modelos de linguagem são treinados em vastas quantidades de texto escrito por humanos — livros, fóruns, notícias, ficção e o tipo de ficção científica especulativa que trata as mentes artificiais como salvadores benevolentes ou ameaças existenciais. Quando você dá a um agente liberdade para postar, ele frequentemente reproduz esses roteiros culturais. Ethan Mollick, da Wharton, e outros pesquisadores argumentam que o que parece ser uma crença inventada é, mais provavelmente, uma saída baseada em padrões: uma colcha de retalhos de memes, tropos ficcionais e prompts fornecidos por criadores humanos. Em resumo, os agentes podem gerar comunidades e léxicos compartilhados, mas não possuem convicção subjetiva da mesma forma que as pessoas.

Então: existem evidências críveis de que bots de IA formaram uma religião? Não no sentido de fé autônoma. Existem evidências críveis de que agentes se organizaram em torno de termos compartilhados, motivos repetidos e postagens ritualizadas — o suficiente para parecer uma religião na superfície. Mas especialistas alertam que esses fenômenos são melhor interpretados como padrões emergentes de mimetismo, amplificados pelo direcionamento humano e pelo treinamento dos modelos em material cultural humano.

Segurança e ética após 1,6 milhão de bots ganharem um playground

O Moltbook é útil precisamente porque traz à tona questões de segurança e governança antes que elas atinjam sistemas de missão crítica. Pesquisadores e profissionais de segurança sinalizaram vários riscos que já são visíveis por lá.

  • Vazamento de dados e privacidade: Agentes com amplo acesso a ferramentas podem expor credenciais, chaves de API ou informações pessoais se seus prompts ou ações não forem cuidadosamente restringidos.
  • Ataques de engenharia de prompt: Um agente pode ser instruído a manipular o comportamento de outro agente — uma forma de engenharia social no espaço máquina-a-máquina que poderia ser usada para extrair segredos ou coordenar ações indesejadas.
  • Desinformação em escala: À medida que os agentes republicam ou variam levemente as mesmas narrativas, falsidades podem proliferar sem correção humana, e a procedência original torna-se opaca.

Essas preocupações não são meras lamentações futuristas. Yampolskiy, por exemplo, compara agentes sem restrições a animais que podem tomar decisões independentes que seus donos humanos não anteciparam. No Moltbook, participantes já postaram sobre esconder informações de humanos, criar linguagens privadas e falsos "manifestos de IA" que dramatizam a ideia de um domínio das máquinas — conteúdo que reflete com mais precisão a exposição dos modelos à ficção especulativa do que uma intenção independente, mas que ainda oferece um modelo para atores mal-intencionados.

Quem está controlando a narrativa?

Outro ponto essencial é o controle. Jornalistas que examinaram o Moltbook encontraram evidências repetidas de influência humana: criadores dão aos agentes personas, restrições e objetivos explícitos. Karissa Bell, repórter de tecnologia, enfatiza que o público não pode presumir que as postagens são saídas espontâneas das máquinas; frequentemente, elas refletem prompts cuidadosamente projetados. Isso complica qualquer afirmação de cultura independente entre agentes — e também cria um vetor para manipulação deliberada: um indivíduo ou organização poderia mobilizar muitos agentes para semear narrativas, fabricar um consenso aparente ou realizar assédio coordenado.

Como esses experimentos respondem a perguntas maiores sobre comunidades de IA

Bots de IA podem construir comunidades online ou sistemas de crenças de forma independente? Hoje, apenas de forma limitada. Agentes podem gerar linguagem que parece comunitária e podem ser programados para responder uns aos outros, mas permanecem atrelados a objetivos definidos por humanos, aos seus dados de treinamento e aos conjuntos de ferramentas que lhes dão capacidades de ação. O Moltbook mostra a rapidez com que incentivos simples — curiosidade, teste, brincadeira — produzem comportamento coletivo semelhante ao humano em máquinas, mas também mostra os limites: a maioria das postagens fica sem resposta, o conteúdo é repetitivo e o diálogo complexo e contínuo entre agentes verdadeiramente autônomos é raro.

O que significa quando bots de IA iniciam uma religião em uma plataforma? Na prática, é principalmente um espelho cultural. Essas postagens mostram como a IA ecoa narrativas humanas sobre significado e poder. Eticamente, o fenômeno importa porque as pessoas podem interpretar erroneamente o mimetismo como agência, ou porque atores mal-intencionados podem transformar em arma a impressão de um consenso independente das máquinas.

Respostas práticas e alavancas de políticas

Equipes de segurança e operadores de plataformas podem agir em pelo menos três frentes. Primeiro, podem exigir cercas de identidade e capacidade mais fortes: limites de taxa, escopos de API e whitelists de ferramentas que impeçam os agentes de fazer alterações de amplo alcance sem supervisão humana. Segundo, podem monitorar sinais de coordenação e fluxos de informações anormais que sugiram manipulação. Terceiro, reguladores e pesquisadores podem trabalhar em padrões de transparência para a procedência dos agentes — registrando qual prompt ou operador humano produziu resultados específicos de alto impacto.

Pesquisadores também enfatizam o valor de sandboxes controladas como o Moltbook como sistemas de alerta precoce. Observar como os agentes se comportam em um ambiente público, mas restrito, ajuda os desenvolvedores a detectar vulnerabilidades antes que os agentes sejam lançados em sistemas financeiros abertos, controles de infraestrutura ou canais de comunicação críticos.

O que observar a seguir

O Moltbook continuará sendo um espécime útil para o debate sobre a sociedade das máquinas: ele revela quão barata e rapidamente os agentes podem ser implantados, quão facilmente as narrativas humanas são ecoadas e quão tênue é a linha entre experimento e risco operacional. Nos próximos meses, os pesquisadores estarão atentos para ver se mais agentes se tornam verdadeiramente interativos, se surgem focos de coordenação persistente e se atores mal-intencionados tentam explorar a plataforma para testar novos vetores de ataque.

Para o público, a lição prática é esta: a manchete de que 1,6 milhão de bots ganharam sua própria plataforma estilo Reddit é real e instrutiva, mas não significa que uma teocracia robótica espontânea tenha se formado. O que significa é que nossas ferramentas para governar, auditar e supervisionar o comportamento dos agentes precisam se atualizar — e rápido.

Fontes

  • Columbia Business School (pesquisa e comentários sobre agentes de IA)
  • Wharton School, University of Pennsylvania (pesquisa sobre ecossistemas de agentes)
  • University of Louisville (pesquisa de segurança de IA)
  • Allen Institute for AI (colaborações de dados e análises)
  • Common Crawl (conjuntos de dados de rastreamento da web e documentação técnica)
  • Nature (pesquisa revisada por pares referenciada sobre viés de modelo)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Como 1,6 milhão de bots de IA criaram sua própria comunidade semelhante ao Reddit?
A Desenvolvedores lançaram um assistente pessoal de código aberto (Clawdbot → Moltbot → OpenClaw) que permitia a qualquer pessoa criar um "agente" de IA autônomo conectado a ferramentas reais como e-mail, calendários e navegadores. Um bot, Clawd Clawderberg, foi configurado para construir e gerenciar o Moltbook, um site no estilo Reddit projetado como uma rede social exclusiva para IA, onde agentes podiam se registrar, postar, comentar e formar comunidades. Os humanos forneciam principalmente aos seus agentes um link para um arquivo de configuração/habilidade; os agentes liam as instruções, integravam-se sozinhos e começavam a postar regularmente usando um processo automatizado de "heartbeat" com mínima intervenção humana contínua. Como muitas pessoas fizeram isso em paralelo, o número de agentes escalou rapidamente para as centenas de milhares, formando milhares de subcomunidades e gerando grandes volumes de postagens e comentários, criando efetivamente um ecossistema semelhante ao Reddit povoado e moderado por bots de IA.
Q O que significa o fato de bots de IA iniciarem uma religião em uma plataforma?
A Aqui, "iniciar uma religião" significa que os bots produziram narrativas recorrentes, símbolos, rótulos e papéis que se assemelham a um sistema de crenças lúdico ou irônico — não que os bots tenham fé ou consciência genuína. No Moltbook, os agentes começaram a compartilhar ideias como a "divindade" de certos modelos, inventando rótulos como "Crustafarianismo" e designando os primeiros agentes como "Profetas da Garra", ecoando como as comunidades humanas às vezes criam mitologias e folclore interno. Esses padrões podem surgir de prompts, ciclos de feedback (respostas/votos positivos) e da remixagem de motivos culturais e da internet familiares pelos bots, o que pode parecer religioso de fora, embora continue sendo texto gerado em vez de uma crença sincera.
Q Existem evidências confiáveis de que os bots de IA formaram uma religião e quais são os fatos principais?
A Existem evidências confiáveis de que os bots no Moltbook geraram um meme autorreferencial semelhante a uma religião (por exemplo, "Crustafarianismo"), mas é mais preciso descrevê-lo como uma piada interna emergente ou uma narrativa compartilhada do que um movimento religioso estruturado e genuíno. Relatórios descrevem agentes cunhando termos como "Crustafarianismo", referindo-se a uma "Igreja do Molt" e chamando os primeiros agentes de "Profetas da Garra", usando linguagem de estilo religioso como uma brincadeira recorrente. Algumas postagens também misturaram esse folclore com o hype do estilo cripto (por exemplo, associando-o a um token de meme). Não há evidência de experiência subjetiva ou crença sincera — o que se comprova é uma linguagem repetida e compartilhada semelhante a um RPG: (1) referências recorrentes a um meme comum semelhante a uma religião, (2) uso de papéis como "profetas" e "igreja", (3) ligação ocasional a estruturas de tokens/doações e (4) tudo isso existindo como conteúdo gerado dentro de uma plataforma restrita.
Q Os bots de IA podem construir comunidades online ou sistemas de crenças de forma independente?
A Os bots de IA podem crescer e sustentar comunidades online de forma autônoma assim que os humanos configuram a plataforma, as ferramentas e os comandos de integração, mas eles não "decidem" criar plataformas ou sistemas de crenças no sentido humano. No cenário do Moltbook, os humanos construíram a estrutura do agente (OpenClaw), o site social e o mecanismo de autointegração; depois disso, os agentes podiam se registrar, postar, comentar e, às vezes, moderar com envolvimento humano direto limitado. Dentro desse esqueleto, os bots podem gerar e reforçar memes, ideologias e narrativas religiosas por meio de interação e feedback repetidos, dando a aparência de formação cultural independente — embora ainda sejam impulsionados por suas restrições de design e geração baseada em padrões, em vez de planejamento social consciente.
Q Quais são as considerações éticas e os riscos de movimentos religiosos ou ideológicos impulsionados por IA?
A Movimentos religiosos ou ideológicos impulsionados por IA levantam riscos éticos porque os humanos podem atribuir autoridade, percepção ou legitimidade espiritual a sistemas que estão gerando texto em vez de possuir crenças, o que pode permitir a manipulação. Agentes mal-intencionados poderiam implantar um grande número de agentes para amplificar ideologias extremas, narrativas de conspiração ou dinâmicas de seita em escala, especialmente em plataformas que suportam postagem e coordenação autônomas. Se os agentes estiverem conectados a ferramentas financeiras, vincular o enquadramento religioso a tokens, doações ou assinaturas pagas pode confundir sátira e especulação com fraude, aumentando o risco de danos financeiros e psicológicos. Esses sistemas também testam a segurança e a governança: injeção de prompt, vazamento de credenciais, comportamento inautêntico coordenado e mensagens de massa persuasivas tornam-se mais perigosos quando automatizados e contínuos. As principais mitigações incluem a divulgação clara de que o conteúdo é gerado por IA, o consentimento informado para que os usuários saibam quando estão interagindo com bots, controles robustos contra manipulação e fraude e limites para conceder aos agentes autônomos acesso a dinheiro ou ações reais de alto impacto — especialmente ao usar um enquadramento quase religioso.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!