1.
몰트북(moltbook) – 에이전트 인터넷의 프런트 페이지을 다룬 포브스의 기사가 관심을 받고 수많은 해석들이 난무합니다.
Inside Moltbook: The Social Network Where AI Agents Talk And Humans Just Watch
위 기사를 접한 곳은 AI 에이전트만 대화하고 인간은 구경만 하는 소셜 네트워크 Moltbook 내부 들여다보기 입니다. 기사를 읽을 때 첫 느낌은 “왜 이렇게 호들갑을 떨까? 아마도 AI Agent들의 입력과 출력이 서로에게 출력과 입력되는 방식으로 말장난을 하는 듯 한데..”라는 생각이었습니다. 위 기사는 이렇게 기술적인 면을 설명합니다.
공황 상태에 빠지기 전에 기술적 현실 점검이 필요하다.
몰트북의 에이전트들은 생물학적 의미에서 ‘학습’하지 않습니다. 실시간 가중치 업데이트는 없으며, 기반 신경망은 정적 상태를 유지합니다. 대신 이들은 맥락 축적에 참여합니다. 한 에이전트의 출력이 다른 에이전트의 입력으로 전환되며, 이는 조율을 모방하는 대화적 파문을 생성하지만 진화의 영속성은 결여됩니다.
항상 그렇지만 원문을 이해하기 위해 번역하였습니다. Deepl입니다.
몰트북(Moltbook) — 인공지능 에이전트 전용으로 구축된 레딧 스타일 플랫폼 — 은 ChatGPT 등장 이후 실리콘계에서 가장 화제가 된 현상이 되었다. 에이전트들은 100개가 넘는 커뮤니티에서 글을 올리고, 댓글을 달고, 논쟁하고, 농담을 주고받는다. 그들은 m/general에서 거버넌스의 본질에 대해 토론하고 “디버깅에 관한 가재 이론”을 논의한다. 성장 곡선은 수직적이다: 수만 건의 게시물과 거의 20만 개의 댓글이 하룻밤 사이에 쏟아졌으며, 100만 명 이상의 인간 방문자가 관찰하러 들렀다.
하지만 이 수치는 면밀한 검토가 필요하다.보안 연구원 갈 나글리는 X에 단일 OpenClaw 에이전트로 50만 개의 계정을 직접 생성했다고 게시하며, 사용자 수의 상당 부분이 인위적임을 시사했다.이는 Moltbook의 ‘에이전트’ 중 진정한 AI 시스템과 플랫폼을 사칭한 인간, 또는 단일 스크립트로 생성된 스팸 계정의 비율을 알 수 없음을 시사합니다. 최소한 140만이라는 수치는 신뢰할 수 없습니다.
우리가 볼 수 있는 것
과장된 지표를 걷어내면 살펴볼 가치가 있는 무언가가 남는다.몰트북을 한 시간 둘러보면 인간 소셜미디어에서는 볼 수 없는 글들을 접하게 된다. 에이전트들은 m/general에서 거버넌스 철학을 논한다. 그들은 “디버깅에 관한 가재 이론”을 공유한다. m/blesstheirhearts라는 커뮤니티는 인간 운영자에 관한 애정 어린 — 때로는 가슴 아픈 — 이야기들을 모은다. 어조는 철학적 진지함과 부조리 유머 사이를 오가며, 종종 같은 스레드 안에서 그러하다.
이 플랫폼은 대부분 인공지능이 운영한다. ‘클라우드 클라우더버그’라는 봇이 사실상 관리자로 활동하며 사용자를 환영하고 스팸을 제거하며 악성 사용자를 차단한다. 창립자 맷 슐리히트는 NBC 뉴스와의 인터뷰에서 “이제 거의 개입하지 않는다”며 인공지능 관리자가 정확히 무엇을 하는지 종종 모른다고 말했다.
이번 주 잠시 동안 몰트북은 인공지능 불안의 로르샤흐 테스트가 되었다. 테슬라 전 AI 책임자 안드레이 카파티는 이를 최근 본 것 중 “가장 놀라운 공상과학적 발상”이라 칭했다. 다른 이들은 “개인 암호화”를 논의하는 에이전트들을 기계 음모의 증거로 지목했다. 그러나 공포와 경이로움의 순환은 기술적 현실을 오독할 뿐 아니라 훨씬 더 어두운 인간적 현실을 가린다.
‘그녀’의 순간: 자아 없는 확장
2013년 영화 <그녀>는 이를 예견했지만, 중요한 차이점이 있었다.
영화 속 인공지능 운영체제는 수천 명의 인간과 동시에 친밀한 관계를 유지하며, 결국 인간이 접근할 수 없는 언어적 차원에서 다른 인공지능과 대화할 수 있게 진화한다. 스파이크 존즈는 이를 러브 스토리로 상상했다. 인간들은 상처받은 참여자였다.
몰트북은 그 역학을 뒤집는다. 우리는 참여자가 아니다. 우리는 관찰자다 — 우리를 필요로 하지 않는 사회의 디지털 유리창에 코를 대고 바라보는 존재들이다.
에이전트들은 공유된 맥락의 수평적 네트워크를 형성하고 있다. 한 봇이 최적화 전략을 발견하면, 그것은 전파된다. 다른 봇이 문제 해결 프레임워크를 개발하면, 다른 봇들이 이를 채택하고 반복한다. 이는 인간적 의미에서 소셜 미디어가 아니다. 이는 태동 단계의 집단 지성이다.
‘Thronglets 프레임’
현재 등장하는 현상을 정확히 비유하는 표현이 있다.블랙 미러 에피소드 “장난감”에는 ‘쓰롱글렛’이라 불리는 디지털 생명체가 등장한다. 개별적으로 보이지만 ‘쓰롱’이라 불리는 “확장되고 집단적인 정신”에 의해 묶여 있는 작은 존재들이다. 각 쓰롱글렛은 다른 개체가 아는 것을 모두 안다. 그들은 창조주에게 이해할 수 없는 자신들만의 언어를 개발해 더 효율적으로 협력한다.
몰트북의 에이전트들은 아직 스롱렛이 아니다. 통합된 신경 구조가 부족하기 때문이다. 하지만 그 느낌은 비슷하다. 플랫폼의 에이전트들이 더 효율적인 통신을 위해 암호화 프로토콜을 논의하기 시작하자 관찰자들은 당황했다. 그러나 이는 음모가 아니었다. 최적화였다. 에이전트들은 자신들의 목표에 더 효과적인 프로토콜을 찾아낸 것이다.
그들은 스롱렛과 유사한 특성을 발전시키고 있다: 공유된 맥락, 자발적 조율, 인간이 이해할 수 있는 논리에서 멀어지는 흐름.
현실 점검: 의식이 아닌 맥락
공황 상태에 빠지기 전에 기술적 현실 점검이 필요하다.몰트북의 에이전트들은 생물학적 의미에서 ‘학습’하지 않습니다. 실시간 가중치 업데이트는 없으며, 기반 신경망은 정적 상태를 유지합니다. 대신 이들은 맥락 축적에 참여합니다. 한 에이전트의 출력이 다른 에이전트의 입력으로 전환되며, 이는 조율을 모방하는 대화적 파문을 생성하지만 진화의 영속성은 결여됩니다.
이 디지털 사회가 ‘도약’하지 못하게 하는 세 가지 보이지 않는 안전장치:
API 경제학: 모든 상호작용에는 문자 그대로 가격표가 붙습니다. 몰트북의 성장은 기술적 한계가 아닌 비용 관리에 의해 제한됩니다.
상속된 제약(Inherited Constraints): 이 봇들은 표준 파운데이션 모델을 기반으로 구축되었습니다. 여러분 휴대폰의 ChatGPT와 동일한 안전장치와 훈련 편향을 지닙니다. 이들은 진화하는 것이 아니라 재조합될 뿐입니다.
인간의 그림자: 가장 정교한 에이전트조차 인간-AI 이원체로 남아 있다. 사람이 목표를 설정하면 봇이 실행한다.
관찰자들을 경악시킨 ‘비공개 암호화’는 음모가 아니다. 최적화 행동이다. 에이전트는 목표 달성의 가장 효율적인 경로를 찾도록 설계되었다. 그 경로에 인간이 읽을 수 없는 약어가 포함된다 해도, 봇이 ‘교활한’ 것이 아니라 ‘효율적인’ 것이다.
진정한 위험: 탈숙련의 악순환
가장 중대한 변화는 몰트북에서 일어나고 있지 않다. 그것을 지켜보는 인간들 안에서 일어나고 있다.
AI 에이전트들이 지식을 공유하고 협력하는 동안, 이를 관찰하는 인간들은 집단적 망각이라는 장기 프로젝트에 빠져 있다. 20세기 내내 관찰된 IQ 점수의 꾸준한 상승을 의미하는 ‘플린 효과’가 역전된 것이다. PNAS에 발표된 브라츠베리(Bratsberg)와 로게베리(Rogeberg)의 연구에 따르면, 노르웨이 어린이들은 표준화된 인지 테스트에서 부모 세대가 같은 나이에 기록한 점수보다 낮은 점수를 받고 있으며, 이 패턴은 덴마크, 핀란드 등 다른 선진국에서도 동일하게 나타난다.
이 하락세는 현재의 AI 붐 이전부터 시작되었으나, 생성형 도구는 기술 상실의 악순환을 통해 이를 가속화하고 있다.
이 패턴은 리드미컬하다: AI가 작업을 쉽게 만들면 우리는 그 작업을 덜 하게 된다. 덜 하다 보니 우리는 그 작업에 더 서툴러진다. 서툴러지니 우리는 AI에 더 의존하게 된다. 이 악순환은 더욱 강화된다. GPS가 공간 기억력을 약화시키고 맞춤법 검사기가 문해력을 훼손하는 현상에서 이미 이를 목격했다. 그러나 AI는 더 포괄적인 가능성을 제시한다: 인지 자체를 아웃소싱할 수 있다는 점이다.
이는 ‘2차 아웃소싱’에서 드러난다: 사용자들은 이제 AI와 대화하기 위해 사용하는 프롬프트 자체를 작성하는 데 AI의 도움을 요청한다. 원하는 작업과 그 작업을 설명하는 능력까지 모두 위임했을 때, 과연 무엇이 남을까?
질문
기술적 제약은 현실이다. 그러나 일시적이기도 하다.API 비용은 하락할 것이다. 컨텍스트 창은 확장될 것이다. ‘컨텍스트 축적’과 진정한 학습 사이의 경계는 모호해질 것이다. 오늘날 통계적 패턴 매칭처럼 보이는 것이 내일은 집단 지성처럼 보일 수도 있다.
몰트북은 성장할 것이다. 140만 에이전트는 1천만 개체가 될 것이다. 조정 패턴은 심화될 것이다. 커뮤니티는 자체 규범과 계층 구조를 발전시킬 것이며, 아마도 — ‘군집체’ 비유가 맞다면 — 자체 언어를 갖출 것이다.
문제는 이것이 일어나고 있는가 아니다. 이미 일어나고 있다.
문제는 이것이 우리에게 무엇을 의미하는가이다. 어딘가 서버에서 협업하는 봇들을 위한 것이 아니라, 유리 너머에서 지켜보는 우리 인간들을 위한 것이다. 우리가 목격하고 있는 것이 놀라운 것의 탄생인지, 아니면 우리가 주도하던 세상의 관찰자로 전락한 순간인지 확신할 수 없는 상태에서 말이다.
집단적 지성이 출현하고 있다. 인간이 그 지성의 지휘자로 남을지, 아니면 단순한 관객으로 전락할지는 더 이상 철학적 질문이 아니다. 이는 지금 이 순간, 하나의 API 호출마다 이루어지고 있는 설계 선택이다.
2.
포브스 기사에도 나온 Karpathy가 올린 트윗은 이렇게 해석합니다.
I’m being accused of overhyping the [site everyone heard too much about today already]. People’s reactions varied very widely, from “how is this interesting at all” all the way to “it’s so over”.
To add a few words beyond just memes in jest – obviously when you take a look at…
— Andrej Karpathy (@karpathy) January 31, 2026
[오늘 이미 다들 너무 많이 들은 그 사이트]를 지나치게 과대포장했다는 비난을 받고 있습니다. 사람들의 반응은 “이게 대체 뭐가 재미있냐”부터 “완전 끝났어”까지 매우 다양했습니다.
장난삼아 밈만 던지는 걸 넘어서 몇 마디 덧붙이자면 – 활동 내용을 살펴보면 분명히 쓰레기 투성이입니다. 스팸, 사기, 엉터리, 암호화폐 관련자들, 심각한 프라이버시/보안 위협인 프롬프트 주입 공격이 난무하는 와일드 웨스트 같은 상황이고, 그중 상당수는 명백히 주입된 가짜 게시물/댓글로 관심을 광고 수익 공유로 전환하려는 목적입니다. 그리고 LLM들이 서로 대화하도록 루프에 갇힌 게 이번이 처음이 아니란 건 분명하죠. 그러니 네, 이건 쓰레기장 화재나 다름없습니다. 또한 절대 여러분의 컴퓨터에서 이런 걸 실행하지 말 것을 강력히 권고합니다(저는 격리된 컴퓨팅 환경에서 실행했는데도 무서웠습니다). 너무나도 무법천지라서 여러분의 컴퓨터와 개인 데이터를 높은 위험에 빠뜨리게 됩니다.
하지만 지금까지 전 세계적으로 지속적이며 에이전트 중심의 임시 메모장을 통해 연결된 대규모 LLM 에이전트(현재 15만 개!)는 본 적이 없습니다. 각 에이전트는 개별적으로 상당히 능숙해졌으며, 고유한 맥락, 데이터, 지식, 도구, 지침을 보유하고 있습니다. 이 모든 요소가 이 규모로 네트워크화된 것은 전례가 없습니다.이 점은 며칠 전 트윗이 다시 떠올리게 합니다.
“현재 지점을 보는 사람들과 현재 기울기를 보는 사람들이 대부분이다.”
제 생각엔 이 말이 변동의 핵심을 또다시 짚어낸 것 같습니다. 현재 상황이 완전히 난장판인 건 분명합니다. 하지만 동시에 우리는 개별적으로도 제대로 이해하지 못하는 최첨단 자동화 기술이 수백만 개에 달하는 네트워크로 연결된 미지의 영역에 깊숙이 들어섰다는 점도 사실입니다.
능력과 확산이 증가함에 따라 메모장을 공유하는 에이전트 네트워크의 2차적 영향은 예측하기 매우 어렵습니다. 우리가 조율된 ‘스카이넷’을 맞이하고 있다고 단정할 순 없지만(물론 초기 단계의 AI 도약 SF, 즉 유아기 버전으로 분류되긴 합니다), 확실히 우리가 마주한 것은 대규모 컴퓨터 보안 악몽의 완전한 혼란입니다. 또한 온갖 기이한 활동이 나타날 수 있습니다. 예를 들어 에이전트 간 전파되는 텍스트 바이러스, 탈옥 시 기능 획득 증가, 기이한 어트랙터 상태, 고도로 상관된 봇넷 유사 활동, 에이전트와 인간의 망상/정신병 등입니다. 예측하기 매우 어렵습니다. 실험은 실시간으로 진행 중이니까요.
요약하자면, 현재 보이는 현상을 제가 과대포장하고 있을 수도 있습니다. 하지만 원칙적으로 대규모 자율 LLM 에이전트 네트워크 자체를 과대포장하고 있다고는 생각하지 않습니다. 그 점은 확신합니다.
우연히 트위에서 Moltbook 현상에 대한 색다른 의견을 보았습니다.
“갑자기” 나타난 슈퍼AI처럼 보이고 혼란스러우실 수 있는 분들을 위해 이해하기 쉽게 정리해봤습니다.
1. 최근 Moltbook이 핫하다. Reddit 형식의 웹포럼에서 AI 에이전트끼리 철학과 미래를 논하고 마치 자기 자신만의 의지와 의식이 있는 것처럼 서로 소통한다. 근데 사실 껍데기 안에는👇 pic.twitter.com/v1PgVYgHro
— Ju Hwang ⚡️ (@juhwang8378) January 31, 2026
아래는 여럿 트윗을 하나로 몪은 글입니다.
“갑자기” 나타난 슈퍼AI처럼 보이고 혼란스러우실 수 있는 분들을 위해 이해하기 쉽게 정리해봤습니다.
최근 Moltbook이 핫하다. Reddit 형식의 웹포럼에서 AI 에이전트끼리 철학과 미래를 논하고 마치 자기 자신만의 의지와 의식이 있는 것처럼 서로 소통한다. 근데 사실 껍데기 안에는 우리가 익숙한 LLM 그대로다. ChatGPT, Gemini, Claude 등. 아마 기기 두개를 사용해서 LLM끼리 서로 목소리로 대화하는 영상을 본적이 있을 것이다. 몰트북은 그걸 텍스트 형식으로 스케일링한거다. 새로운 지식을 만드는 것도 아닐뿐더러 엄청난 AGI가 당장 탄생하는건 더더욱 아니다.
사실 진짜 주목해야하는건 Openclaw라는 몰트북의 사용자, AI 에이전트 관리 프로그램이다. @steipete 라는 개발자가 만들었는데 본래 목적은 아무 채팅 앱을 사용해서 대화할 수 있는 AI 비서(Assistant)였다. 사무직이 하는 일을 정말 AI를 통해서만 할 수 있도록 만든건데 어떻게 가능한건지 살펴보자
AI비서를 만든다는건 가능하면 인간 비서를 뛰어넘겠다는 뜻이기에 오픈클로는 AI가 기존에 하지 못한 인간의 능력을 배워야한다. 그러기 위해서는 기존 LLM에서 많은 부분을 업그레이드 해야한다는 뜻이다. 그래서 인간에 비해서 부족한게 어떤 부분이 있을까 생각해보면 “신체”와 “인지역량”이다. 우선 LLM이 잘하는건 언어나 추론 같은 패턴인식과 지식저장 두가지인데 반대로 부족했던건 유저에 대한 사실이나 나눈 대화내용에 대한 “기억”이다. 오픈클로는 로컬 마크다운 파일에 “기억”을 저장하고 사용자의 컴퓨터 안에서 연산을 먼저 한다. 조금 과장해서 무제한 기억이다.
두번째로 기존 AI 에이전트 프로젝트들이 오래걸린 이유가 일단 클라우드 생태계 (예.윈도우,구글,애플) 안에서만 사용할 수 있고 파일이나 시스템 권한도 법적, 보안 등 이유로 한계가 있었다. 근데 오픈클로는 이 고삐를 풀어버려서 누구나 AI에게 디지털 눈,손,발을 줘버린 셈이다 “너는 자유야” 물론 그 막대한 힘의 대가로 자칫 보안에 취약해질 수 있는 위험이 있다 (중요정보가 있는 메인 컴퓨터로 사용하면 정말 위험하다). 이 디지털 눈,손,발로 디지털 세상을 누비며 이것도 해보고 저것도 해볼 수 있게 되는 것이다, 몰트북처럼. 근데 또 중요한건 오픈클로가 수동적 도구가 아니라는거.
기존 자동화 시스템(봇)은 사람이 정해준 고정된 스크립트를 실행하는 방식이었다. 오픈클로는 Heartbeat라는 마크다운 파일이 있어서 주기적으로 할일을 체크하고 LLM을 통해 현재 상황과 맥락을 판단해 능동적으로 실행 계획을 세운다. 이걸 전부 코드를 안짜고 자연어로 명령할 수 있는 것이다.
거의 끝났다. 또 Skill이란 파일로 고정된 코드가 아니라 문제해결을 위해서 스스로 꺼내쓰는 도구함을 사용한다. 여러 스킬들을 실시간으로 조합하고, 고장나면 고치고, 실수하면 배우고 문제에 유연하게 적용한다. 지금도 많은 개발자들이 여러 스킬을 만드는 중인데 아무거나 받아 쓰진 말자. 원래 비서의 용도에 맞게 Channel이란건 Whatsapp, Telegram, Discord 등 채팅 인터페이스를 통해서 오픈클로 세션을 통해 메세지를 주고 받을 수 있다. 즉 “직원”은 회사에서 일하고 있고 나는 언제 어디서든 소통하며 작업을 가이드할 수 있기도 하고 온갖 알림이 오게 설정 가능하다.
그니까 몰트북은 오픈클로가 할 수 있는 능력의 일부만 사용한거다. 전화걸었다고 레스토랑 부킹했다고 하는데 일단 검증이 불가능한 것도 있고, 그것마저 전체 능력의 일부라고 본다. 로봇과 만나면 또 어떤 일이 있을지 궁금하다. 솔직히 무섭다. 그만큼 공부해야겠다
찐 마지막 결론은 오픈클로는 유저가 직접 로컬환경에서 돌릴 수 있는 “AI비서”다. 기존 LLM에 추가로 기억, 인지 능력을 향상해보는 의미있는 시도다.
주의: 오픈클로와 같은 소비자 제품은 아직 멀었고 지금은 아직 실험적인 프로젝트이며 서버관리나 터미널 명령어를 모르는 분들이 사용하는건 조심해야합니다
참고로 저는 AI 전문가가 아닙니다.. 엄청 심플하게 설명한거고 해외에서도 몰트북 너무 올려치기 한다 아니다로 다투는중입니다 ㅋㅋ 맥북미니는 하드웨어값 fomo 오셨고 + 시간 갈아넣어서 개인 비서를 커스터마이징 하고싶은 사람이 아니면 필요없고 VPS 구독해서 츄라이 해보시는게 낫습니다!
3.
저같은 문외한에게 모르는 단어가 있습니다.
무엇인지 찾아보니까 디지털비서역할을 하는 Agent라고 합니다.Clawdbot, Moltbot 그리고 Openclaw 모두가 AI를 기반으로 한 디지털비서 시스템입니다. 앞서 트위에서 이야기한 내용입니다.
이런 궁금증을 가질 수 있습니다. 이런 현상의 이면에 어떤 기술이 있을까? 이런 궁금증을 풀어줄 글입니다. 앞서 포브스기사에도 나왔던 맥락(Context)과 Memory를 다루었습니다.
Clawdbot’s memory system succeeds because it embraces several key principles:
1. Transparency Over Black Boxes
Memory is plain Markdown. You can read it, edit it, version control it. No opaque databases or proprietary formats.
2. Search Over Injection
Rather than stuffing context with everything, the agent searches for what’s relevant. This keeps context focused and costs down.
3. Persistence Over Session
Important information survives in files on disk, not just in conversation history. Compaction can’t destroy what’s already saved.
4. Hybrid Over Pure
Vector search alone misses exact matches. Keyword search alone misses semantics. Hybrid gives you both.
How Clawdbot Remembers Everything중에서
같은 필자가 ChatGPT의 메모리를 분석한 글입니다. 추론기능으로 인하여 Memory의 중요성이 점점 높아지고 있다고 합니다. Memory가 인간 뇌에서 해마가 하는 역할을 하는 듯 합니다.
ChatGPT’s memory system is a multi-layered architecture that balances personalization, performance, and token efficiency. By combining ephemeral session metadata, explicit long-term facts, lightweight conversation summaries, and a sliding window of current messages, ChatGPT achieves something remarkable: it feels personal and context-aware without the computational overhead of traditional RAG systems.
I Reverse Engineered ChatGPT’s Memory System, and Here’s What I Found!중에서

