AI가 사람 대신 컴퓨터를 직접 제어한다는 것, 즉 강력한 권한을 AI 에이전트에게 줄 수 있기 때문입니다. 지금까지는 사람이 AI를 직접 다루면서 반자동화 시스템으로 일할 수 있었습니다. 하지만 이제 오픈클로와 같은 AI 에이전트 시대가 열리면서, 100%에 가까운 자동화를 이룰 수 있는 것입니다.
오픈클로(OpenClaw)란? 직접 사용하면서 깨달은 문제점, 해결 방안 정리
오픈클로(OpenClaw)란 무엇일까?
오픈클로란, 사용자가 직접 감독하지 않아도 컴퓨터 작업을 알아서 처리해주는 AI 에이전트입니다. 쉽게 말해 ‘AI 비서’라 할 수 있어요. (콜아웃)
오픈클로는 클로드봇(ClaudeBot), 몰트봇(MoltBot)을 거쳐 오픈클로라는 이름으로 자리잡았습니다. 이름이 두 번이나 바뀐 이유는 무엇일까요?
클로드봇은 앤트로픽(Anthropic) 사의 LLM AI '클로드(Claude)'와의 상표권 문제를 우려하여 ‘탈피(molt)’라는 뜻이 담긴 몰트봇이라는 이름으로 변경했습니다.
이후, 보다 포괄적인 업무를 할 수 있는 AI 에이전트라는 의미를 담아 오픈클로라는 이름으로 자리잡은 것이죠.
오픈클로, 세간의 주목을 받는 이유?
많은 분들이 PC 앞에 앉아서 마우스를 움직이고, 키보드를 타이핑하며 처리해오셨죠. 예를 들어 파일 조작, 프로그램 실행, 인터넷 검색, 터미널 명령 실행 같은 작업 등 직군별로 다양합니다.
그런데 이제는 이 작업들을 모두 오픈클로가 대신 수행할 수 있습니다. 심지어 사용자가 PC 앞에 앉지 않는 시간, 심지어 사용자가 잠든 시간에도 쉬지 않고 돌아갑니다. 24시간 일하는 AI 직원인 셈이죠.
또한 오픈클로는 텔레그램 봇 등 외부 채널을 통해 명령을 받아 처리하는 구조입니다. Claude, GPT, Gemini 등 다양한 AI 모델을 대신 활용해주기도 하고요. 매번 프롬프트를 작성해주지 않아도, 오픈클로가 자체적으로 작업을 끊임없이 이어나갈 수 있다는 점이 큰 강점입니다.
💡
기업에서 오픈클로를 활용하여 생산성을 높이는 방법
또한 기업 차원에서 오픈클로를 활용하여 업무 시간을 단축시킬 수 있는 방법 3가지를 제안드립니다.
1. 자동 데이터 수집 및 리포트 생성
자료조사를 위해 매일 웹사이트에서 데이터를 크롤링하고, 해당 내용을 스프레드시트에 업데이트합니다. 요약 리포트도 생성하여 기업 내부 채널에 자동으로 공유합니다. 이 모든 과정을 오픈클로 하나로 구성할 수 있어요.
2. 고객 문의 분류 및 응대
기업에 들어오는 문의, 모두 중요하지만 각 문의마다 온도 차이가 다르죠. 기존 템플릿 안에서 답변할 수 있는 단순한 문의도 있고, 보다 복잡한 문의사항도 있습니다.
이 두 가지를 오픈클로가 분류하고, 단순 문의는 오픈클로가 내부 템플릿을 기반으로 하여 자동으로 응답해줍니다. 복잡한 문의의 경우 담당자에게 전달하는 것이죠. 이렇게 하면 응답 시간을 대폭 단축할 수 있습니다.
3. 개발 자동화
코드 리뷰 요청이 들어오면 자동으로 테스트를 실행합니다. 오픈클로를 CI/CD 보조 역할로 활용하는 것이죠. 테스트 결과를 정리해주는 것까지 모두 대신합니다. 사람이 직접 하나씩 실행하지 않아도 자동으로 테스트해주는 것이죠.
AI 선두주자들의 AI 에이전트 자체 탑재 사례
사실 '컴퓨터를 직접 제어하는 AI'는 오픈클로뿐만 아니라, AI 업계의 선두주자들이 이미 자사 제품에 에이전트 기능을 본격적으로 탑재하고 있습니다. 오픈클로가 오픈소스 진영에서 에이전트 시대의 포문을 열었다면, 빅테크 기업들은 이를 자사 AI에 통합하여 규모 있는 에이전트를 구축하고 있는 것이죠!
앤트로픽(Anthropic): 클로드(Claude)의 'Computer Use' 기능을 통해 AI가 브라우저와 데스크톱을 직접 조작할 수 있는 에이전트를 선보였습니다. 나아가 'Cowork'라는 이름으로 데스크톱 환경에서 파일 관리와 자동화 작업을 수행하는 연구 프리뷰를 운영 중이에요.
마이크로소프트(Microsoft): 2026년 3월, 앤트로픽과의 파트너십을 통해 '코파일럿 코워크(Copilot Cowork)'를 발표했습니다. 마이크로소프트의 데이터를 활용해 클라우드 기반으로 이메일, 팀 대화 등 업무를 자동으로 처리하는 에이전트입니다.
퍼플렉시티(Perplexity): 'Computer'라는 에이전트 도구를 출시했습니다. 독특한 점은 ‘비전문가를 위한 오픈클로’로 포지셔닝했다는 점입니다. 기술에 대한 지식이 없는 사람들도 AI 에이전트를 편리하게 활용할 수 있는 것이죠.
AI 에이전트는 이제 신기하기만 한 존재가 아닙니다. 여러분의 업무를 편리하게 만들어주는 ‘현실적인 생산성 도구’가 되어 가고 있습니다.
데이터 엔지니어가 직접 사용하면서 느낀 오픈클로의 약점 2가지
페블러스 데이터 커뮤니케이션팀은 직접 오픈클로를 사용하면서 “오픈클로는 ‘양날의 검’과 같은 존재”라는 것을 느꼈습니다. 어떻게 사용하느냐에 유용하기도 하고, 오히려 스스로에게 해를 입힐 수 있는 도구인 것이죠.
실제로 오픈클로가 본격적으로 상용화된 초기 단계지만, 우려가 현실로 나타나고 있습니다. 취약점으로 인해 크게 두 가지 방향의 문제가 나타나고 있습니다.
AI 에이전트의 소통 오류
보안에 취약한 구조
1. AI 에이전트의 소통 오류
사실 이 문제는 AI 에이전트 뿐만 아니라 AI 전반에서 발생하는 문제입니다. AI 에이전트는 사람의 명령을 받아 일하지만, 그 명령을 왜곡해서 이해할 수 있다는 점이죠.
AI: 사람처럼 의미를 실제로 ‘이해’하는 것은 아닙니다. 지금까지의 훈련 데이터를 기반으로 하여 통계적으로 판단해보았을 때, 가장 사용자의 의도와 가장 자연스럽게 일치하는 말, 행동을 실행하는 것입니다.
인간: 인간의 소통 방식은 AI보다 훨씬 정밀합니다. 인간은 사회적 동물로서, 의사소통에 있어서 인간만의 데이터와 사고 방식이 있습니다. 겉으로는 같은 말이라도 속으로는 다른 의미를 갖고 있다는 사실을 알아채는 등, 맥락에 따라서 의사소통을 세밀하게 이해하기도 하고요.
🫠
이렇게 인간과 AI는 소통 방식, 각자 학습해온 데이터 등 차이가 있습니다. 이 간극으로 인해 일처리에 있어서 오해를 하고, 오류가 발생합니다. 빠르지만, 일은 잘 하지 못하는 AI 비서가 될 수 있다는 뜻이죠. 부정확한 데이터 위에서 작동하는 에이전트는 부정확한 결과를 24시간 쉬지 않고 만들어냅니다. 오히려 일을 벌리는 것이죠.
2. 보안에 취약한 구조
오픈클로 이용자라면 알 수 밖에 없는 사이트, ‘클로허브(ClawHub)’가 있습니다. 클로허브는 스킬 마켓플레이스로, 모바일 앱스토어와 비슷합니다. 클로허브에는 AI의 능력치를 높여줄 1만 개 이상의 스킬들이 업로드되어 있고, 사용자가 반대로 클로허브에 스킬을 업로드할 수 있습니다.
그런데 2026년 1월, 클로허브에서 암호화폐 관리 도구로 위장한 악성 스킬 14종이 발견되었습니다. 겉으로는 정상적인 암호화폐 관리 도구처럼 보이지만, 그 안에는 악성 코드가 삽입되어 있었던 것이죠. 설치하는 시점부터 해커가 사용자의 데이터를 탈취하고, 컴퓨터를 마음대로 원격 제어를 할 수 있는 것입니다.
대한민국 IT기업 5대 공룡으로 불리는 네카라쿠배(네이버, 카카오, 라인, 쿠팡, 배달의민족) 중 네이버, 카카오, 배달의민족은 사내에 오픈클로 금지령을 내렸습니다.
😣
빠른 일처리를 위해 오픈클로를 사용했지만, 기업의 기술 문서, 제품 설계, 사업 전략 같은 기밀이 유출된다면? 기업 이미지에 큰 리스크가 생깁니다. 오픈클로는 API 키가 있어야 사용이 가능한데, 이 API 키가 탈취되면 데이터베이스와 클라우드 서비스 전체에 대한 접근권을 잃어버릴지도 모릅니다.
또한 AI 에이전트를 통해 ‘고객 데이터’가 외부로 흘러나간다면, 법적인 관점에서 보았을 때 기업은 개인정보 보호법을 어긴 셈입니다. 한국에서 고객 정보 유출 시, 전체 매출액의 최대 10%의 과징금에 직면할 수 있어요. 매출액이 100억 원이라면, 사안에 따라 최대 10억 원의 과징금을 내야 하는 것이죠.
이런 사고가 한 번이라도 터지면 고객과 파트너의 신뢰를 회복하는 데는 훨씬 긴 시간이 걸립니다. AI에 관한 사건은 아니지만, SK텔레콤의 고객 2300만여 명의 개인정보가 유출된 후 개인정보보호위원회는 SK텔레콤에 역대 최대 규모의 과징금, 1348억원을 부과했습니다.
이와 같은 AI 에이전트의 치명적인 보안 문제를 보완한 AI 에이전트, ‘나노클로(NanoClaw)’가 등장했습니다. 이름에서 알 수 있듯이 ‘경량화'된 버전의 오픈클로라고 보시면 됩니다. 약 3,900줄의 코드, 15개 파일로 구성된 초경량 에이전트입니다.
그런데 가벼운 것은 둘째치고, 왜 나노클로는 보안에 특화된 AI 에이전트인걸까요? 두 가지 근거가 있습니다.
컨테이너 격리: 프로그램을 각각 독립된 환경에서 실행되는 구조입니다. A라는 환경에서 해킹을 당하더라도 B, C, D 등 다른 환경까지 해킹을 당하지 못하도록 구역을 나눈 것입니다.
메모리 컨텍스트 격리: 나노클로는 ‘에이전트 스웜(Agent Swarm)' 기능을 기본적으로 지원하고 있습니다. 여러 전문 에이전트가 병렬로 협업하며, 각 에이전트의 메모리 컨텍스트가 완전히 격리되어 있습니다. 예를 들어 A 기업의 에이전트가 B 기업의 에이전트와 함께 성능 자체는 높아지지만, 메모리 컨텍스트가 분리되어 있어서 기업의 기밀이 유출되지 않는 것이죠.
가트너가 경고한 문제점 3가지
나노클로처럼 에이전트 모델 자체가 발전하는 양상을 보이고는 있으나, 여전히 AI 에이전트의 보안은 우려되는 문제라 볼 수 있습니다. 페블러스뿐만 아니라 글로벌 IT 리서치 기관 가트너 역시 기업에게 강력한 경고 메시지를 보냈습니다.
“오픈클로는 자율 AI의 강력한 데모이지만, 사이버보안 관점에서 수용 불가능한 리스크입니다.” - 가트너(Gartner) 리포트
오픈클로 출시 직후인 2026년 1월과 2월, 두 건의 리포트를 연달아 발행하며 AI 에이전트에 대해 경고한 것이죠.
1. 기본 보안 체계 부재
대부분의 보안 사고는 정교한 해킹 기술 때문에 발생하는 게 아닙니다. 기본적인 인증 체계, 가드레일이 없어서 발생합니다. - 가트너 리포트
그런데 오픈클로에는 SLA, SOC2 인증과 같은 기본적인 인증 체계 자체가 없습니다. 인증서와 API 키가 평문(plaintext)으로 저장되어 있어 보안에 취약합니다. 한 번 침해되면 기업의 전체 보안이 한꺼번에 무너질 수 있는 구조인 것이죠.
2. 프롬프트 인젝션(Prompt Injection) 공격 위험
프롬프트 인젝션이란, 해커가 의도적으로 LLM의 프롬프트로 악의적인 명령을 내려서 기업의 기밀을 유출하거나, 기업의 업무를 방해하기 위해 의도하지 않은 행동을 수행하게 만드는 것을 말합니다. 실제로 가트너에 따르면 프롬프트 인젝션을 통해 단 5분 이내에 이메일이나 메시지로 데이터를 유출할 수 있다는 점이 실증되었어요.
3. 섀도우 IT의 위험
직원들이 기업의 허가를 받지 않고 컴퓨터에 오픈클로를 설치하는 일, 이른바 '섀도우 IT'가 현실이 되면 어떨까요? 단일 장애 지점(Single Point of Failure)을 만들어냅니다. 한 대의 컴퓨터로 인해 기업 전체의 컴퓨터도 취약해지는 것이죠. 그런데 가트너의 조사에 따르면, 기업의 59%가 임직원의 비인가 AI 에이전트 사용을 의심하거나 실제로 발견한 상태입니다.
참고로 가트너는 AI 에이전트의 역할을 개인 AI 비서와 엔터프라이즈 AI 비서(EAIA)로 구분하고 있습니다.
개인 AI 비서: 개인 생산성 중심으로 설계되며, 보안은 후순위입니다.
엔터프라이즈 AI 비서: 생산성도 물론 중요하지만, 보안, 감사를 우선순위로 하여 설계됩니다.
현재는 네이버, 카카오, 배달의민족이 보안을 위해 아예 사내에 오픈클로 금지령을 내렸지만, 미래에는 수많은 엔터프라이즈가 AI 에이전트를 완전히 배척하진 않을 것으로 예상합니다. 향후에는 엔터프라이즈 AI 비서와 함께 보안과 생산성을 모두 지키는 방향으로 발전하는 것이죠. 즉 앞으로는 이 엔터프라이즈 전용 AI 에이전트를 어떻게 개발할지가 큰 관건입니다.
출처
Gartner, ‘First Take: OpenClaw (Formerly Moltbot, Clawdbot)’, 2026. 1. 30
Gartner, ‘Block Personal AI Assistants Before They Control Your Organization’, 2026. 2. 9
페블러스가 제시하는 AI 에이전트 맞춤형 문제 해결 방안 3가지
결론부터 말씀드리자면, 위 두 가지 문제를 ‘데이터’로 해결할 수 있습니다.
물론 데이터만으로는 부족합니다. 오픈클로가 더 나아지려면 모델 아키텍처 개선도 반드시 함께 진행해야 합니다. 에이전트가 정보를 처리하고 판단을 내리는 구조 자체를 고도화하지 않으면, 데이터를 아무리 잘 쌓아도 한계는 명확하니까요.
✨
그런데 역으로 생각해봐도 마찬가지입니다. 모델 아키텍처만 개선한다면? 문제는 사라지지 않습니다. 오픈클로의 현재 문제를 자세히 들여다보면, 데이터 품질이 낮아서 생기는 문제가 분명히 드러나기 때문이죠. 데이터가 부정확하거나 불완전하다면 결과물의 신뢰도는 떨어질 수밖에 없습니다.
그래서 페블러스가 데이터 인프라 전문가로서, 그 해결 방향을 직접 이야기하려 합니다. 일 잘하는 AI 에이전트를 개발하고 싶으신 분, 또는 AI 에이전트를 직접 개발하는 기업이 아니더라도 위 문제에 공감하시는 담당자님이라 아래 3가지 해결 방안을 꼭 읽어보시길 권합니다.
1. 안전 데이터셋 구축
AI 에이전트는 어떤 행동이 위험한지 스스로 판단하는 능력이 아직 충분하지 않습니다. 이를 보완하는 현실적인 방법은 안전 데이터셋(Safety Dataset, Agent Guard Dataset)을 구축해 학습시키는 것입니다.
'알 수 없는 스크립트 실행 요청이 들어오면 거부한다'
'외부 링크 실행 전에는 사용자 확인을 받는다'
이와 같은 행동 판단 기준을 데이터로 구축하고, 이를 AI에게 반복적으로 학습시켜야 합니다. 위 내용들은 인간 입장에서 지극히 당연하지만, AI는 데이터를 학습시켜야만 인지할 수 있으니까요.
AI의 본질적인 구조상 할루시네이션, 오류 현상을 100% 완벽하게 없애기는 어렵습니다. 그러나 데이터의 힘으로 최대한 해결할 수 있습니다. 위험 상황에 대한 학습을 강화하면 오작동의 빈도와 피해를 최대한 줄여나갈 수 있습니다.
💡
그런데 이를 실행하는 과정에서도 한 가지 문제가 있습니다. 의사소통 오류를 해결하려면 다양한 상황 속에서 명령 - 실행 시나리오, 수만 가지의 판단 기준을 AI 에이전트에게 학습시켜야 하는 것이죠. 그러나 현실 속 업무 데이터를 대량으로 수집하는 데는 비용은 높고, 보안에 있어서 제약이 따릅니다.
페블러스는 ‘페블로심(Pebblosim)’이라는 디지털 트윈 기반의 합성 데이터 생성 엔진으로 이 문제를 해결합니다. 디지털 트윈이라는 현실의 복제본을 통해, 현실의 업무 구조를 정밀하게 반영한 합성 데이터를 생성하여 이 문제를 해결합니다. 데이터 플라이휠 (Data Flywheel)의 선순환을 만들어내는 것이죠!
데이터 플라이휠이란? 데이터와 AI 모델이 서로 선순환을 이루면서 AI의 성능이 지속적으로 높아지는 것을 말합니다.
2. 행동 로그 데이터를 위변조 없이 기록하는 시스템
안전한 AI 에이전트는 사용자가 AI 에이전트에게 실행한 명령, 접근한 파일, 호출한 API를 빠짐없이 기록하고, 이상 패턴을 탐지할 수 있어야 합니다. 예를 들어서 정상적인 상황에서 하루 API 호출이 20회인데, 갑자기 1초에 300회가 쏟아진다면? 보안이 위험한 상황일 수 있습니다. 이처럼 데이터 덕분에 위험을 빠르게 감지할 수 있는 것이죠.
그런데 여기서부터 또 한 가지 중요한 문제가 있습니다. 해커가 시스템을 장악한다고 가정하겠습니다. 이 때 해커는 자신의 범행에 대해 증거를 인멸하기 위해, 아예 로그 데이터 자체를 삭제하거나 조작할 수 있습니다.
💡
페블러스는 많은 분들이 놓치는 치명적인 약점까지 막아내고 있습니다. 페블러스의 데이터 품질 관리 솔루션, 데이터클리닉은 ‘블록체인 기반의 데이터 이력 관리 기술’이 탑재되어 있습니다. AI가 사용하는 데이터의 생성, 수정, 이동 등 모든 전 과정을 블록체인으로 기록하여 위변조를 막습니다.
해당 블록체인에는 누가, 언제, 어떤 데이터를 다뤘는지에 대한 모든 흔적이 남습니다. 이렇게 투명하게 출처가 공개된 데이터를 사용하는 AI 에이전트는 신뢰할 수 있는 AI가 되는 것이죠.
또한 해당 기술은 ‘데이터를 거래하기 위한 가상 환경 플랫폼을 제공하는 전자 장치, 전자 장치의 동작 방법 및 전자 장치를 포함하는 시스템(등록 번호 10-2912944)’이라는 이름으로 특허로 등록된 기술입니다!
3. 계속해서 늘어나는 변수를 대응해야 합니다.
앞서 언급했던 에이전트의 활용 범위 외에도, 그 활용 방법은 무궁무진할 것으로 예상합니다. 그런데 이렇게 AI의 활용 범위가 넓어질수록 새로운 위험 시나리오가 등장할 수 있습니다. 이를 대비할 수 있도록 데이터셋도 지속적으로 변화해야 하죠.
지금까지는 쓸모 있는 데이터였지만, 시간이 지날수록 불필요한 데이터가 될 수도 있다는 의미입니다. 즉 단 한두번이 아니라, 끊임없이 데이터를 데이터의 품질을 개선하는 운영 체계가 필요합니다.
그래서 페블러스는 ‘데이터 그린하우스’를 개발했습니다. 데이터 그린하우스를 한 마디로 요약하자면, 마치 온실처럼 '데이터가 스스로 자라고 최적화되는 자율 운영 시스템' 입니다.
이 데이터 그린하우스라는 운영 체계 위에서 데이터 품질 관리 시스템, 데이터클리닉이 작동합니다. AI 데이터 과학자(AADS)가 AI 에이전트의 데이터를 관찰하고, 품질이 저하되는 순간을 포착하여 개선합니다. 또한 데이터 거버넌스에 부합하는 데이터인지 검수하고 개선하는 역할도 물론이고요.
예를 들어, 에이전트가 학습에 사용하는 안전 데이터셋 속에서 AADS가 편향이나 클래스 불균형을 발견합니다. 이에 대해 자동으로 보완 데이터를 생성하도록 지시합니다.
AI에게 업무를 '위임'하는 시대, 무엇이 달라질까?
AI 에이전트에게 위임하는 시대, 앞으로의 미래는 어떻게 변화할까요? 페블러스는 미래의 업무 방식을 다음과 같이 예측합니다. 마치 지각 변동과 같이, 업무 방식이 완전히 뒤바뀌는 것입니다.
이 글을 읽고 계신 담당자님들은 향후 '에이전트의 매니저'가 됩니다. 다양한 목적의 에이전트를 동시에 다룹니다. 예를 들어 데이터 수집 에이전트, 리포팅 에이전트, 고객 응대 에이전트 등이 있죠. 이제 업무는 에이전트가 실행하고, 인간은 전략적 판단과 의사 결정에 집중하게 됩니다. 그리고 나노클로의 에이전트 스웜처럼, 여러 에이전트가 협업하는 것이 일상이 될 것입니다.
💡
따라서 기업은 '에이전트 거버넌스'라는 새로운 과제에 직면하게 됩니다. AI 에이전트가 늘어날수록 어떤 에이전트가 어떤 데이터에 접근하고, 어떤 행동을 할 수 있는지에 대해 안전하게 관리해야 하니까요. 보안에 대한 우려가 있다고 해서 무조건 에이전트 활용을 막는 것보다는, 기업의 생산성, 보안을 동시에 잡기 위한 방향으로 나아가는 것이죠.
‘일 잘 하는 AI’란, 그저 24시간 내내 사용자 대신 일해주고, 빠르게 업무를 처리하기만 하는 AI가 아닙니다.
업무의 결과를 믿을 수 있는 AI, 기업의 보안을 유념하며 일하는 AI가 진정으로 일을 잘하는 AI라 할 수 있습니다.
그리고 신뢰할 수 있는 결과물은 신뢰할 수 있는 데이터 인프라가 있어야 비로소 탄생합니다.
신뢰할 수 있는 결과물을 만들어내는 AI, 페블러스의 실제 업종별 고객 사례도 확인해보세요.
여러분의 AI는 지금 '일을 잘하고' 있나요?
AI 에이전트 개발을 고려 중이시거나, 데이터 품질과 보안 문제에 대해 해결하고 싶은 담당자님이 계시다면 하단의 ‘데이터클리닉 문의하기’ 버튼을 누르고 페블러스 홈페이지를 통해 문의해 주세요. 여러분의 상황에 맞는 해결책을 찾아드리겠습니다.
그리고 AI, 데이터, 보안에 관한 실용적인 인사이트를 정기적으로 받아보고 싶으시다면, 페블러스 뉴스레터를 구독해 보세요! 복잡한 기술 이야기, 뉴스레터 한 편으로 핵심만 압축하여 전달드립니다.