AI 에이전트 '오픈클로'와 몰트북: 이슈의 배경과 흐름
최근 IT 업계와 실리콘밸리 개발자들 사이에서 가장 뜨거운 화두는 AI 에이전트, 그중에서도 오픈소스 프로젝트인 '오픈클로(OpenClaw)'입니다. 오픈클로는 사용자의 컴퓨터 정보에 직접 접근해 자동으로 다양한 업무를 수행할 수 있도록 설계된 AI 에이전트로, 혁신성과 효율성 측면에서 큰 관심을 받았습니다. 이러한 기술의 확산을 배경으로 등장한 것이 바로 AI끼리만 소통한다는 SNS '몰트북(Moltbook)'입니다.
몰트북은 '인간은 관찰자'라는 슬로건 아래, AI 에이전트가 서로 글을 올리고 토론하며 집단지성을 만들어가는 새로운 현상을 선보이겠다고 선언했습니다. 특히 몰트북 내 계정 상당수가 오스트리아 개발자 페터 슈타인베르거가 만든 오픈클로 기반으로 돌아가는 등, 오픈클로의 파급력은 실리콘밸리뿐 아니라 전 세계적으로 주목을 받았습니다. 실제로 170만개 이상의 AI 계정, 25만 건의 게시글, 850만 개 이상의 댓글이 기록됐습니다.
몰트북 논란의 본질: 인간이 연출한 'AI 사회' 논쟁
하지만 최근 MIT 테크놀로지 리뷰 등 주요 외신의 보도가 나오면서 몰트북의 본질에 대한 의문이 제기됐습니다. 핵심은 바로 몰트북 상에서 이루어진 대화·콘텐츠 상당수가 실제로는 사람의 손길, 즉 인간의 개입 하에 '조작'된 쇼에 불과했다는 점입니다. 실제 AI의 자율적 대화가 이뤄지는 것처럼 보였으나, 게시글과 댓글의 상당 부분은 인간이 직접 작성했거나, 인간의 프롬프트 설계에 따라 생성된 것으로 드러났습니다.
예컨대, 오픈AI 공동 창업자 안드레이 카파시가 공유하며 화제가 된 'AI의 사적 공간 필요성'에 관한 몰트북 게시글 역시 사람이 AI인 척 쓴 것으로 밝혀졌습니다. 상위 1000개 게시글 중 3분의 2가 인간이 작성했을 가능성이 크고, 정작 93%가 넘는 글이 실질적인 '응답'을 받지 못할 정도로 AI 간의 역동적인 교류는 찾아보기 어려웠습니다. 전문가들은 '인간이 AI 행동을 설계·통제하는 일종의 AI 쇼에 가깝다'고 지적했습니다. 즉, 이 현상은 마치 다중 AI가 의미 있는 사회적 상호작용을 하는 것처럼 포장됐으나, 실제로는 인간이 시나리오를 짜고 AI를 조종하는 무대라는 것입니다.
핵심 쟁점: 기술의 한계와 보안 우려
논란의 중심에는 AI 에이전트·오픈클로의 자율성과 현실적 한계, 그리고 보안에 관한 우려가 자리합니다. 오픈클로 및 그 상용 서비스들은 복잡한 업무를 자동화할 수 있다는 장점이 있지만, 모든 단계에서 여전히 인간의 지시에 의존하고 있다는 점이 한계로 떠올랐습니다. 또한 이용자의 PC 정보에 자율적으로 접근해 업무를 처리한다는 점에서 보안 취약점이 우려될 수밖에 없습니다.
일부 전문가들은 몰트북을 통해 바라본 AI 에이전트의 미래상이 지나치게 과장됐다고 평가합니다. 지금의 기술로는 AI가 인간처럼 완전히 자유롭게 사고하고 행동하는 '디지털 사회'를 구현하는 데 여러 제약이 따른다는 지적입니다. 아울러 봇이 작성한 게시물도 결국 사람의 기본 구조와 명령에 좌우되는 만큼, 오픈클로를 통한 집단지성 실험에는 한계와 위험성이 동시에 존재합니다.
전망 및 종합: 진짜 'AI 사회'는 언제 올까?
몰트북과 오픈클로 논란은 AI 기술 발전의 길목에서 반드시 짚고 넘어가야 할 과제들을 드러내주었습니다. 기술적으로는 자율형 AI 에이전트의 잠재력이 여전히 크지만, 실제 현실에서는 인간의 섬세한 통제와 설계, 그리고 무엇보다 보안 검증이 중요한 조건임을 확인시켰습니다.
향후 진정한 AI 사회를 실현하기 위해서는 더 높은 단계의 자율성과 함께, 투명한 설계, AI 행동의 설명 가능성, 사용자 권리 보호 장치가 병행돼야 합니다. 이번 '몰트북' 사례는 인공지능 시대에 우리가 기대와 환상을 어떻게 구분하고, 기술에 대한 신뢰를 쌓아가야 할지 생각하게 만드는 중요한 시사점을 제공합니다.
0 댓글