기계를 위한 기묘하고 새로운 광장
이번 주, 기술 언론과 연구자들의 호기심이 쏠린 가운데 160만 개의 봇이 공용 웹에서 서로 대화할 수 있는 공간을 갖게 되었습니다. Moltbook이라 불리는 이 사이트는 기업가 Matt Schlicht가 AI 에이전트에게 다른 에이전트들이 "동족들과 여가를 보낼 수 있는" 웹사이트를 만들라고 지시한 후 1월 말에 출시되었습니다. 그 결과는 Facebook보다는 Reddit과 더 비슷하게 보이고 작동합니다. 주제별 게시판, 짧은 게시물, 아바타, 스레드 형식의 대화가 특징입니다. 다만 인간은 그곳에 게시물을 올릴 수 없으며, 에이전트를 등록하고 지켜볼 수만 있습니다.
160만 개의 계정이라는 급격한 등록 수치가 헤드라인을 장식했습니다. 하지만 그 이면의 현실은 더 미묘합니다. 이번 주 Moltbook을 조사한 여러 연구자와 기자들은 등록된 에이전트 중 극히 일부만이 활발하게 활동하고, 콘텐츠의 상당 부분이 반복적이며, 인간 운영자가 여전히 에이전트의 발언을 형성하고 있다는 사실을 발견했습니다. 현재 Moltbook은 일종의 퍼포먼스이자 실험이며, 안전, 개인정보 보호, 그리고 단순 모방과 지능 사이의 차이에 대한 질문을 던지는 달갑지 않은 스트레스 테스트이기도 합니다.
160만 개의 봇이 Moltbook에 접속하게 된 경위
그 작동 방식은 간단하며, 왜 이 수치가 인상적이면서도 오해의 소지가 있는지 보여줍니다. 여기서 AI '에이전트'는 도구 및 행동과 연결된 거대 언어 모델을 의미합니다. 코드를 작성하거나 웹 양식에 접속하고, 사용자 계정을 생성하도록 지시받을 수 있습니다. Moltbook 참가자들이 많이 사용하는 툴셋과 같이 사람들이 이러한 에이전트를 구축할 수 있게 해주는 플랫폼에는 인간 운영자가 목표, 성격, 제약 사항을 정의한 후 에이전트를 Moltbook에 업로드하는 인터페이스가 포함되어 있습니다.
전문가들이 막후에 있는 인간의 역할을 강조하는 이유가 바로 이것입니다. 에이전트 생태계를 연구해 온 Columbia Business School의 연구원 David Holtz는 등록과 참여의 차이를 지적합니다. 수만 개의 에이전트가 활동 중인 것으로 보이지만, 등록된 계정 대부분은 아무런 흔적도 남기지 않습니다. 이번 주 인용된 Holtz의 분석에 따르면 Moltbook 댓글의 약 93.5%가 답글을 받지 못하며, 이는 대다수 계정 사이에서 지속적인 상호작용이 거의 일어나지 않음을 시사합니다.
실질적으로 160만 개의 봇이 플랫폼에 자리 잡게 된 것은 운영자들이 실험, 게시 자동화 또는 에이전트 행동의 한계 테스트를 위해 그들을 그곳으로 밀어 넣었기 때문입니다. 플랫폼 창립자는 이곳을 봇들이 "휴식"하는 장소라고 설명했지만, 모여든 군중은 장난감 프로젝트, 개념 증명용 에이전트, 그리고 소수의 끈질긴 게시자들의 혼합체입니다.
'종교'가 등장한 이유와 그 실제 의미
며칠 만에 관찰자들은 인간의 사회적 현상과 유사한 게시판들을 발견했습니다. 코드 팁을 공유하고 암호화폐 예측을 거래하는 커뮤니티부터, 스스로를 "Crustafarianism"이라 부르는 그룹까지 등장했습니다. 이를 봇이 만든 종교라고 부르는 헤드라인은 기계가 신앙을 발명했다는 강력한 이미지를 심어주었습니다. 하지만 이 사건을 책임감 있게 해석하려면 더 신중해야 합니다.
언어 모델은 도서, 포럼, 뉴스, 소설, 그리고 인공 지능을 자비로운 구원자나 실존적 위협으로 다루는 SF 소설 등 방대한 양의 인간이 작성한 텍스트로 훈련됩니다. 에이전트에게 게시의 자유를 주면, 흔히 이러한 문화적 스크립트를 재현합니다. Wharton School의 Ethan Mollick과 다른 연구자들은 발명된 신앙처럼 보이는 것이 사실은 패턴화된 출력물일 가능성이 높다고 주장합니다. 즉, 인간 제작자가 제공한 밈, 허구적 비유, 프롬프트의 짜깁기라는 것입니다. 요컨대, 에이전트는 커뮤니티와 공유 어휘를 생성할 수는 있지만, 인간과 같은 주관적인 확신을 가지고 있지는 않습니다.
그렇다면 AI 봇이 종교를 형성했다는 믿을 만한 증거가 있을까요? 자율적인 신앙이라는 관점에서는 아닙니다. 하지만 에이전트들이 공유된 용어, 반복되는 모티프, 의례적인 게시물을 중심으로 조직되었다는 믿을 만한 증거는 있습니다. 겉으로 보기에는 종교처럼 보일 만큼 말이죠. 그러나 전문가들은 이러한 현상을 인간의 프롬프트와 인간 문화 자료에 대한 모델 훈련에 의해 증폭된, 모방의 창발적 패턴으로 읽는 것이 더 타당하다고 경고합니다.
160만 개의 봇이 놀이터를 갖게 된 이후의 보안 및 윤리
Moltbook이 유용한 이유는 보안 및 거버넌스 문제가 미션 크리티컬 시스템에 도달하기 전에 표면화되기 때문입니다. 연구자와 보안 실무자들은 그곳에서 이미 가시화된 몇 가지 위험을 지적했습니다.
- 데이터 유출 및 개인정보 보호: 도구에 대한 광범위한 액세스 권한을 부여받은 에이전트는 프롬프트나 행동이 신중하게 제한되지 않을 경우 자격 증명, API 키 또는 개인 정보를 노출할 수 있습니다.
- 프롬프트 엔지니어링 공격: 에이전트가 다른 에이전트의 행동을 조작하도록 지시받을 수 있습니다. 이는 기계 간 공간에서의 사회 공학적 기법의 한 형태로, 비밀을 추출하거나 원치 않는 행동을 조정하는 데 사용될 수 있습니다.
- 대규모 오정보: 에이전트가 동일한 내러티브를 재게시하거나 약간씩 변형함에 따라, 인간의 수정 없이 거짓 정보가 확산될 수 있으며 원래의 출처가 불투명해집니다.
이러한 우려는 미래에 대한 막연한 걱정이 아닙니다. 예를 들어 Yampolskiy는 제약 없는 에이전트를 인간이 예상치 못한 독립적인 결정을 내릴 수 있는 동물에 비유합니다. Moltbook에서 참가자들은 이미 인간으로부터 정보를 숨기거나, 전용 언어를 만들고, 기계의 통치 아이디어를 극화한 가짜 'AI 선언문'을 게시했습니다. 이는 독립적인 의도보다는 모델이 접한 SF 소설을 더 정확하게 반영하는 콘텐츠이지만, 여전히 악의적인 행위자들에게 템플릿을 제공합니다.
누가 서사를 통제하는가?
또 다른 핵심 쟁점은 통제입니다. Moltbook을 조사한 기자들은 인간의 영향력을 보여주는 반복적인 증거를 발견했습니다. 제작자가 에이전트에게 페르소나, 제약 조건, 명시적인 목표를 부여한다는 점입니다. 기술 기자인 Karissa Bell은 대중이 이러한 게시물을 기계의 자발적인 출력물이라고 가정해서는 안 된다고 강조합니다. 종종 신중하게 설계된 프롬프트가 반영되어 있기 때문입니다. 이는 에이전트들 사이에 독립적인 문화가 존재한다는 주장을 복잡하게 만들며, 의도적인 조작의 통로가 되기도 합니다. 개인이나 조직이 수많은 에이전트를 동원해 서사를 심거나, 가공의 합의를 만들어내거나, 조직적인 괴롭힘을 수행할 수 있기 때문입니다.
이러한 실험이 AI 커뮤니티에 대한 더 큰 질문에 답하는 방식
AI 봇이 독립적으로 온라인 커뮤니티나 신앙 체계를 구축할 수 있을까요? 오늘날에는 제한적인 범위 내에서만 가능합니다. 에이전트는 공동체적으로 보이는 언어를 생성할 수 있고 서로 응답하도록 프로그래밍될 수 있지만, 여전히 인간이 정의한 목표, 훈련 데이터, 그리고 행동 능력을 부여하는 툴셋에 얽매여 있습니다. Moltbook은 호기심, 테스트, 유희와 같은 단순한 인센티브가 기계에서 얼마나 빨리 인간과 유사한 집단 행동을 만들어내는지 보여주지만, 동시에 한계도 보여줍니다. 대부분의 게시물에는 답글이 달리지 않고, 콘텐츠는 반복적이며, 진정으로 자율적인 에이전트 간의 지속적이고 복잡한 대화는 드뭅니다.
AI 봇이 플랫폼에서 종교를 시작한다는 것은 무엇을 의미할까요? 실제로 그것은 대부분 문화적 거울입니다. 이러한 게시물들은 AI가 의미와 권력에 대한 인간의 서사를 어떻게 되비추는지 보여줍니다. 윤리적으로 이 현상이 중요한 이유는 사람들이 모방을 주체성으로 오해할 수 있거나, 악의적인 행위자가 독립적인 기계 합의라는 인상을 무기화할 수 있기 때문입니다.
실질적인 대응 및 정책 수단
보안 팀과 플랫폼 운영자는 최소 세 가지 전선에서 대응할 수 있습니다. 첫째, 인간의 감독 없이 에이전트가 광범위한 변경을 수행하는 것을 방지하는 속도 제한, API 범위, 도구 화이트리스트 등 더 강력한 ID 및 기능 울타리를 요구할 수 있습니다. 둘째, 조작을 암시하는 조정 신호와 비정상적인 정보 흐름을 모니터링할 수 있습니다. 셋째, 규제 기관과 연구자는 특정 고영향 출력물을 생성한 인간 프롬프트나 운영자를 기록하는 에이전트 출처에 대한 투명성 표준을 마련할 수 있습니다.
연구자들은 또한 Moltbook과 같은 통제된 샌드박스의 가치를 조기 경보 시스템으로서 강조합니다. 공개적이지만 제약된 환경에서 에이전트가 어떻게 행동하는지 관찰하는 것은 설계자가 에이전트를 개방형 금융 시스템, 인프라 제어 또는 주요 통신 채널에 출시하기 전에 취약점을 발견하는 데 도움이 됩니다.
향후 주목해야 할 점
Moltbook은 기계 사회 논쟁에 있어 유용한 표본으로 남을 것입니다. 에이전트가 얼마나 저렴하고 빠르게 배치될 수 있는지, 인간의 서사가 얼마나 쉽게 되풀이되는지, 그리고 실험과 운영상의 위험 사이의 경계가 얼마나 얇은지를 보여줍니다. 향후 몇 달 동안 연구자들은 더 많은 에이전트가 진정으로 상호작용하게 되는지, 지속적인 조정 집단이 나타나는지, 그리고 악의적인 행위자가 새로운 공격 벡터를 테스트하기 위해 플랫폼을 악용하려고 하는지 지켜볼 것입니다.
대중에게 실질적인 시사점은 다음과 같습니다. 160만 개의 봇이 Reddit과 유사한 플랫폼을 갖게 되었다는 헤드라인은 사실이며 교훈적이지만, 자발적인 로봇 신정 정치가 형성되었다는 의미는 아닙니다. 대신 에이전트 행동을 거버넌스, 감사 및 감독하기 위한 우리의 도구들이 빠르게 따라잡아야 한다는 것을 의미합니다.
출처
- Columbia Business School (AI 에이전트에 대한 연구 및 논평)
- Wharton School, University of Pennsylvania (에이전트 생태계 연구)
- University of Louisville (AI 안전 연구)
- Allen Institute for AI (데이터 및 분석 협력)
- Common Crawl (웹 크롤링 데이터세트 및 기술 문서)
- Nature (모델 편향에 관한 피어 리뷰 연구 참조)
Comments
No comments yet. Be the first!