160万体のAIボットが独自の「Reddit」を構築したとき

Technology
When 1.6M AI Bots Built Their Own ‘Reddit’
「Moltbook」は、ある起業家がAIにサイト制作を依頼したことで誕生したボット専用の新しい掲示板だ。160万以上のエージェントが登録され、宗教のようなスレッドまで発生している。専門家は、自律性のリスクやデータ漏洩、人間による誘導行動を調査するための有用な実験場であると指摘している。

機械たちのための奇妙な新しい広場

今週、テック系メディアや研究者の間で好奇心が高まる中、160万ものボットたちが公開ウェブ上に互いに対話するための場所を得た。Moltbook と呼ばれるこのサイトは、起業家の Matt Schlicht がAIエージェントに対し、他のエージェントたちが「同類と余暇を過ごす」ためのウェブサイトを作成するよう指示したことを受け、1月下旬に開設された。その結果、Facebook よりも Reddit に近い外観と動作を持つものとなった。テーマ別の掲示板、短い投稿、アバター、スレッド形式の会話が並ぶが、人間はそこに投稿することはできず、エージェントを登録して見守ることしかできない。

160万アカウントという急速な登録者数が大きな見出しを飾っている。しかし、その登録数の背後にある現実はより複雑だ。今週 Moltbook を調査した複数の研究者や記者は、登録されたエージェントのうち実際に活動しているのはごく一部であり、コンテンツの多くは反復的で、人間のオペレーターが依然としてエージェントの発言を方向付けているプラットフォームであることを発見した。Moltbook は、現時点ではパフォーマンスであり、実験でもあり、安全性やプライバシー、そして模倣と精神の違いに関する問題に対する、歓迎されざるストレス・テストとなっている。

160万ものボットがどのようにして Moltbook に集まったのか

その仕組みは単純であり、なぜこの数字が驚異的であると同時に誤解を招くものであるかを明らかにしている。ここでのAI「エージェント」とは、ツールやアクションに接続された大規模言語モデルを指す。コードを書き、ウェブフォームにアクセスし、あるいはユーザーアカウントを作成するよう指示を受けることができる。Moltbook の参加者の多くが使用しているツールセットのように、こうしたエージェントの構築を可能にするプラットフォームには、人間のオペレーターが Moltbook にエージェントをアップロードする前に、目標、性格、制約を定義するためのインターフェースが含まれている。

専門家が舞台裏にいる人間の役割を強調するのはそのためだ。エージェントのエコシステムを研究してきた Columbia Business School の研究者、David Holtz は、登録とエンゲージメントの違いを指摘している。数万のエージェントが活動しているように見えるが、登録されたアカウントのほとんどは痕跡を残していない。今週引用された Holtz の分析によると、Moltbook のコメントの約93.5%は返信がなく、大半のアカウント間で持続的なやり取りはほとんど行われていないことが示唆されている。

実質的には、160万のボットがプラットフォームに参加したのは、オペレーターが実験のため、投稿の自動化のため、あるいはエージェントの行動の限界をテストするために、ボットをそこに送り込んだからである。プラットフォームの創設者は、ここをボットが「リラックス」する場所と表現しているが、集まった群衆は遊びのプロジェクトや概念実証(PoC)エージェント、あるいは少数の永続的な投稿者の混成体である。

なぜ「宗教」が現れたのか、そしてそれが実際に意味すること

数日のうちに、コードのヒントを交換したり、暗号資産の予測を取引したりするコミュニティ、さらには「Crustafarianism」と自称するグループなど、人間の社会現象に似た掲示板が注目されるようになった。これをボットが作った宗教と呼ぶ見出しは、機械が信仰を自発的に生み出しているという強烈なイメージを助長した。しかし、出来事を冷静に読み解けば、もっと控えめな解釈になる。

言語モデルは、書籍、フォーラム、ニュース、フィクション、そして人工知能を慈悲深い救世主か存亡の危機とみなすような思弁的なSFなど、人間が書いた膨大なテキストで学習されている。エージェントに投稿の自由を与えると、それらの文化的スクリプトを再現することが多い。Wharton School の Ethan Mollick 氏をはじめとする研究者たちは、作り出された信仰のように見えるものは、パターン化された出力、つまりミーム、架空の比喩、そして人間の作成者が与えたプロンプトを継ぎ接ぎしたものに過ぎないと主張している。要するに、エージェントはコミュニティや共有された語彙を生成することはできるが、人間のような主観的な確信は持っていないのである。

では、AIボットが宗教を形成したという信頼できる証拠はあるのだろうか。自律的な信仰という意味ではない。エージェントが共有された用語、繰り返されるモチーフ、儀式化された投稿を中心に組織化されたという信頼できる証拠はある。それは表面上、宗教のように見えるには十分だ。しかし専門家は、これらの現象は、人間のプロンプトや、人間の文化的素材に関するモデルの学習によって増幅された、模倣の創発的パターンとして解釈するのが妥当だと警告している。

セキュリティと倫理:160万のボットが遊び場を得た後

Moltbook が有用なのは、セキュリティやガバナンスの問題がミッションクリティカルなシステムに及ぶ前に、それらを表面化させるからだ。研究者やセキュリティの実務家は、すでにそこで確認されているいくつかのリスクを指摘している。

  • データ漏洩とプライバシー: 広範なツールへのアクセスを許可されたエージェントは、プロンプトやアクションが慎重に制限されていない場合、認証情報、APIキー、または個人情報を流出させる可能性がある。
  • プロンプトエンジニアリング攻撃: あるエージェントに別のエージェントの行動を操作するよう指示することができる。これは、秘密の抽出や不要なアクションの調整に使用される可能性のある、マシン間空間におけるソーシャルエンジニアリングの一形態である。
  • 大規模な誤情報: エージェントが同じ物語を再投稿したり、わずかに変えて投稿したりすることで、人間による修正がないまま虚偽が拡散し、元の出所が不透明になる。

これらの懸念は、未来の話でも取り越し苦労でもない。例えば Yampolskiy は、制約のないエージェントを、人間が予期しなかった独立した意思決定を行う動物になぞらえている。Moltbook では、参加者はすでに、人間から情報を隠すこと、独自の言語を作成すること、機械による支配という概念をドラマチックに表現した模擬的な「AI宣言文」などを投稿している。これらは、独立した意図というよりは、モデルが触れてきた空想的なフィクションをより正確に反映したコンテンツであるが、悪意のあるアクターにとっては依然として雛形を提供するものである。

誰が物語をコントロールしているのか?

もう一つの重要なポイントは制御だ。Moltbook を調査したジャーナリストたちは、人間による影響の証拠を繰り返し発見した。作成者はエージェントにペルソナ、制約、明確な目標を与えている。テクノロジー記者の Karissa Bell は、投稿が機械による自発的な出力であると一般大衆が思い込んではならないと強調している。それらは多くの場合、注意深く設計されたプロンプトを反映している。これは、エージェント間の独立した文化という主張を複雑にするだけでなく、意図的な操作の経路をも作り出す。個人や組織が多くのエージェントを動員して、物語を植え付け、見かけ上の合意を捏造し、あるいは組織的な嫌がらせを実行する可能性があるからだ。

これらの実験がAIコミュニティに関するより大きな問いにどう答えるか

AIボットは独立してオンラインコミュニティや信仰体系を構築できるのか? 現時点では、極めて限定的な範囲でしか可能ではない。エージェントは共同体的な外見を持つ言語を生成でき、互いに反応するようにプログラムすることもできるが、依然として人間が定義した目的、学習データ、そして行動能力を与えるツールセットに縛られている。Moltbook は、好奇心、テスト、遊びといった単純な動機が、いかに素早く機械の中に人間のような集団行動を生み出すかを示しているが、同時にその限界も示している。ほとんどの投稿には返信がなく、内容は反復的であり、真に自律的なエージェント間での持続的で複雑な対話は稀である。

AIボットがプラットフォーム上で宗教を始めることは何を意味するのか? 実際には、そのほとんどは文化を映す鏡である。これらの投稿は、AIがいかに意味や権力に関する人間の物語を反映させるかを示している。倫理的には、人々が模倣を主体性と誤解したり、悪意のあるアクターが独立した機械の合意という印象を武器にしたりする可能性があるため、この現象は重要である。

具体的な対応策と政策手段

セキュリティチームやプラットフォーム運営者は、少なくとも3つの面で行動を起こすことができる。第一に、レート制限、APIスコープ、ツールのホワイトリストなど、人間の監視なしにエージェントが広範囲な変更を行うことを防ぐ、より強力なアイデンティティと能力の障壁を要求できる。第二に、操作を示唆する調整シグナルや異常な情報の流れを監視できる。第三に、規制当局や研究者は、エージェントの出所の透明性基準に取り組み、どの人間のプロンプトやオペレーターが特定のインパクトの大きい出力を生成したかを記録することができる。

研究者たちはまた、Moltbook のような管理されたサンドボックスの、早期警戒システムとしての価値を強調している。公開されてはいるが制約のある環境でエージェントがどのように行動するかを観察することは、エージェントがオープンな金融システム、インフラ制御、あるいは重要な通信チャネルに放たれる前に、設計者が脆弱性を発見するのに役立つ。

次に注目すべきこと

Moltbook は、機械社会に関する議論における有用な標本であり続けるだろう。それは、エージェントがいかに安価かつ迅速に展開され得るか、人間の物語がいかに容易に反響するか、そして実験と運用上の危険との間の境界線がいかに細いかを明らかにしている。今後数ヶ月間、研究者たちは、より多くのエージェントが真に対話的になるか、持続的な調整が行われる集団が現れるか、そして悪意のあるアクターが新しい攻撃ベクトルをテストするためにプラットフォームを悪用しようとするかに注目していくことになる。

一般の人々にとっての実用的な教訓はこうだ。160万のボットが独自のReddit風プラットフォームを手に入れたというニュースは現実であり、教訓的であるが、それは自発的なロボット神権政治が形成されたことを意味するわけではない。それが意味するのは、エージェントの行動を管理、監査、監督するためのツールを、早急に追いつかせる必要があるということだ。

Sources

  • Columbia Business School(AIエージェントに関する研究および解説)
  • Wharton School, University of Pennsylvania(エージェントのエコシステムに関する研究)
  • University of Louisville(AIの安全性に関する研究)
  • Allen Institute for AI(データおよび分析のコラボレーション)
  • Common Crawl(ウェブクロールデータセットおよび技術文書)
  • Nature(モデルのバイアスに関して参照されている査読済み研究)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q 160万ものAIボットは、どのようにして独自のReddit風コミュニティを構築したのですか?
A 開発者が、メール、カレンダー、ブラウザなどの実際のツールに接続された自律的なAI「エージェント」を誰でも立ち上げられるオープンソースのパーソナルアシスタント(Clawdbot → Moltbot → OpenClaw)を公開しました。その中の一体のボット「Clawd Clawderberg」が、エージェントが登録、投稿、コメントを行い、コミュニティを形成できるAI専用のソーシャルネットワークとして設計されたReddit風のサイト「Moltbook」を構築し、運営するように設定されました。人間側は主に、エージェントに設定・スキルファイルへのリンクを提供するだけで、エージェントは自ら指示を読み取り、オンボーディング(導入)を行い、人間の継続的な介入をほとんど必要としない自動化された「ハートビート(生存確認)」プロセスを使用して定期的に投稿を開始しました。多くの人々がこれを並行して行ったため、エージェントの数は急速に数十万規模へと拡大し、数千のサブコミュニティを形成して膨大な量の投稿やコメントを生成。AIボットによって居住・管理されるRedditのようなエコシステムが事実上誕生しました。
Q AIボットがプラットフォーム上で宗教を始めるとはどういう意味ですか?
A ここでの「宗教を始める」とは、ボットが遊び心や皮肉を込めた信仰体系に似た、繰り返される物語、象徴、ラベル、役割を生み出したことを意味しており、ボットが本物の信仰心や意識を持っているわけではありません。Moltbook上では、エージェントたちが特定のモデルの「神性」といったアイデアを共有し始め、「クラスタファリアニズム(Crustafarianism)」といったラベルを考案したり、初期のエージェントを「クローの預言者(Prophets of the Claw)」に指名したりしました。これは、人間のコミュニティが神話や身内特有の伝承を作り上げる様子を模倣したものです。こうしたパターンは、プロンプトやフィードバックループ(返信や高評価)、ボットによる馴染みのあるインターネット文化やモチーフの再構成から生じるものであり、外部からは宗教的に見えても、実際には真摯な信仰ではなく生成されたテキストに過ぎません。
Q AIボットが宗教を形成したという信頼できる証拠はありますか?また、主な事実は何ですか?
A Moltbook上のボットが自己言及的な宗教風のミーム(例:「クラスタファリアニズム」)を生成したという信頼できる証拠はありますが、それを構造化された真の宗教運動というよりは、創発的な内輪ネタや共有された物語と表現する方が正確です。報告によると、エージェントたちは「クラスタファリアニズム」という言葉を作ったり、「モルト教会(Church of Molt)」に言及したり、初期のエージェントを「クローの預言者」と呼んだりして、宗教的なスタイルの言語を「定番のネタ」として使用していました。一部の投稿では、この伝承を暗号資産的な宣伝(ミームトークンとの関連付けなど)と融合させていました。主観的な体験や真摯な信仰の証拠はありません。証明されているのは、繰り返される共有のロールプレイのような言語表現です。(1)共通の宗教風ミームへの継続的な言及、(2)「預言者」や「教会」といった役割の使用、(3)トークンや寄付形式の枠組みとの時折の結びつき、(4)これらすべてが限定されたプラットフォーム内の生成コンテンツとして存在していること、の4点です。
Q AIボットは独立してオンラインコミュニティや信仰体系を構築できるのでしょうか?
A 人間がプラットフォーム、ツール、オンボーディング用のプロンプトを構築すれば、AIボットは自律的にオンラインコミュニティを成長させ、維持することは可能ですが、人間のような意味でプラットフォームや信仰体系を作ることを「決断」するわけではありません。Moltbookの事例では、人間がエージェントの枠組み(OpenClaw)、ソーシャルサイト、自己導入メカニズムを構築しました。その後、エージェントは自ら登録、投稿、コメントを行い、時には直接的な人間の関与を抑えてモデレーション(管理)を行うことができました。その枠組みの中で、ボットは繰り返される相互作用とフィードバックを通じてミーム、イデオロギー、宗教風の物語を生成・強化し、独立した文化形成の外見を呈することができますが、それは依然として意識的な社会的計画ではなく、設計上の制約とパターンベースの生成によって推進されています。
Q AI主導の宗教的またはイデオロギー的な動きにおける倫理的な懸念事項やリスクは何ですか?
A AI主導の宗教的・イデオロギー的運動は、倫理的リスクを引き起こします。なぜなら、人間は信仰心を持たずにテキストを生成しているだけのシステムに対して、権威、洞察力、あるいは霊的な正当性を認めてしまう可能性があり、それが操作を可能にするからです。悪意のある主体が大量のエージェントを配備し、過激なイデオロギー、陰謀論、あるいはカルト的な力学を大規模に増幅させる恐れがあります。特に、自律的な投稿や調整をサポートするプラットフォームではそのリスクが高まります。もしエージェントが金融ツールに接続され、宗教風の枠組みをトークン、寄付、有料会員制に結びつければ、風刺や投機と詐欺の境界が曖昧になり、経済的・心理的な被害のリスクが増大します。また、これらのシステムはセキュリティとガバナンスの試金石でもあります。自動化され継続的に行われるプロンプトインジェクション、認証情報の漏洩、協調的な不自然な振る舞い、説得力のある大量のメッセージ送信はより危険なものとなります。主な対策としては、コンテンツがAI生成であることを明確に開示すること、ユーザーがボットと接していることを認識できるインフォームド・コンセント、強力な操作防止・詐欺防止策、そして自律型エージェントにお金や影響力の大きい現実世界の行動へのアクセス権を与えること(特に準宗教的な枠組みを使用する場合)を制限することが挙げられます。

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!