서론: 왜 로컬 AI 에이전트인가?
매일 아침 컴퓨터를 켜면 가장 먼저 하는 일이 무엇인가요? 슬랙 메신저 확인, 이메일 정리, JIRA 티켓 확인, Notion에서 어제 회의록 검색… 이 모든 단순 반복 작업이 여러분의 소중한 시간을 갉아먹고 있습니다. 클라우드 기반 AI 도구들을 시도해 보셨을 겁니다. ChatGPT, Claude AI, 심지어 자체 구축한 봇까지. 하지만 매번 API 호출 비용이 걱정되고, 데이터가 외부 서버로 나가는 것에 불안함을 느끼곤 했습니다.
OpenClaw는 이러한 딜레마를 해결하는 로컬 환경 기반의 자율 AI 에이전트 플랫폼입니다(이전 명칭: MoltBot, ClawdBot). 단순한 채팅 봇이 아닌, Notion, Telegram, Discord 등 다양한 채널과 통합되어 복잡한 워크플로우를 자동화하는 로컬 AI 운영체제입니다. 본 가이드는 공식 문서(docs.openclaw.ai)를 기반으로 실전 경험을 더한 최신 설치 및 운영 매뉴얼입니다.
본론
1. 사전 요구사항 (Prerequisites)
OpenClaw는 최신 JavaScript 기능을 적극 활용하므로 Node.js 22 이상을 강력히 권장합니다.
| 항목 | 최소 사양 | 권장 사양 | 비고 |
|---|---|---|---|
| OS | macOS, Linux, WSL2 | macOS (Apple Silicon), Ubuntu 22.04+ | Windows는 WSL2 필수 |
| Node.js | v20.x | v22.x (LTS) | 이전 버전 호환성 낮음 |
| RAM | 4GB | 8GB 이상 | 로컬 LLM 사용 시 16GB+ |
| Disk | 10GB | 50GB | Docker 및 로그 저장 공간 |
2. 설치 방법 (Installation)
사용 환경에 따라 세 가지 설치 방법 중 하나를 선택하세요.
방법 A: 자동 설치 스크립트 (가장 빠름) ⭐
macOS 및 Linux 사용자를 위한 원클릭 설치 방식입니다.
| |
방법 B: NPM 패키지 매니저 (수동 관리)
Node.js 환경을 직접 제어하고 싶을 때 사용합니다. Node.js 22가 먼저 설치되어 있어야 합니다.
| |
방법 C: Docker 컨테이너 (격리 환경)
시스템을 깔끔하게 유지하고 싶다면 Docker를 사용하세요.
| |
방법 D: Ollama 통합 (로컬 LLM) ⭐ NEW
Ollama와 통합하여 완전히 로컬 환경에서 OpenClaw를 구동할 수 있습니다. 별도의 API 키 없이 로컬 LLM만으로도 강력한 자동화를 구현할 수 있습니다.
| |
⚙️ 설정만 진행하려면 (게이트웨이 시작 없음)
| |
이미 게이트웨이가 실행 중이라면 자동으로 재시작되지 않으며, 설정만 적용됩니다.
이전 명칭인 Clawdbot도 여전히 사용 가능합니다:
| |
3. 초기 설정 및 온보딩 (Onboarding)
설치 후 onboard 명령어를 통해 대화형으로 설정을 진행해야 합니다. 이 과정에서 데몬(백그라운드 서비스) 등록까지 한 번에 처리됩니다.
| |
3.1 주요 설정 단계
마법사가 실행되면 터미널에서 화살표 키로 선택합니다.
Model Provider (AI 모델 연결)
- Anthropic (권장): Claude 3.5 Sonnet 등 사용. API Key 입력
- OpenAI: GPT-4o 사용
- Ollama (로컬): 로컬 LLM 사용 시 선택 (URL:
http://localhost:11434)
Ollama 권장 모델 (로컬 LLM) OpenClaw와 함께 사용하기에 최적화된 모델들입니다:
| 모델 | 특징 | 용도 | VRAM 요구사양 |
|---|---|---|---|
| qwen3-coder | 코드 생성 최적화 | 코드 리뷰, 스크립트 작성 | 8GB+ |
| glm-4.7 | 중국어/영어 균형 | 일반 대화, 문서 작성 | 8GB+ |
| gpt-oss:20b | 오픈소스 20B | 복잡한 추론, 분석 | 16GB+ |
| gpt-oss:120b | 대형 오픈소스 | 최고 성능 작업 | 32GB+ |
💡 팁: 클라우드 모델도 사용 가능합니다. ollama.com/search?c=cloud에서 확인하세요.
Channels (채널 연동)
- 사용할 플랫폼 선택 (Telegram, Discord, Slack, Notion 등)
- 선택하지 않아도 나중에
openclaw config로 추가 가능
Authentication (보안)
- Admin Password: 관리자 대시보드 접속용 비밀번호 설정
4. 운영 및 모니터링
OpenClaw는 웹 기반의 Control UI를 제공합니다.
4.1 대시보드 접속
URL: http://localhost:18789 (기본 포트가 3000에서 18789로 변경됨)
설치 시 설정한 비밀번호로 로그인하여 에이전트 상태, 로그, 연결된 채널을 확인할 수 있습니다.
4.2 주요 명령어 (CLI)
| |
5. 아키텍처 및 네트워크 구성
OpenClaw는 Gateway를 중심으로 작동하며, 외부 서비스와 안전하게 통신합니다.
graph LR
subgraph "Local Environment"
CLI[OpenClaw CLI]
UI[Control UI - Port 18789]
Core[OpenClaw Gateway]
DB[(Local State/Memory)]
end
subgraph "External/Cloud"
LLM[LLM API - Claude/GPT]
Notion[Notion MCP]
Tg[Telegram Bot]
end
CLI --> Core
UI --> Core
Core <--> DB
Core <--> LLM
Core <--> Notion
Core <--> Tg
5.1 포트 포워딩 (외부 접속 시)
외부에서 Control UI에 접속하려면 리버스 프록시(Nginx)나 SSH 터널링을 사용해야 합니다.
| |
6. Notion MCP 연동 (심화)
OpenClaw는 Notion을 단순 채널이 아닌 **확장 메모리(Extended Context)**로 활용할 수 있습니다.
Notion 통합 설정:
- 토큰 발급: Notion Developers에서 내부 통합 토큰 생성
- OpenClaw 설정:
1 2openclaw config # > Channels > Notion 선택 > Token 입력
사용 예시:
| |
7. Ollama 심화 설정 (로컬 LLM 최적화)
Ollama와 통합하여 완전한 로컬 환경에서 OpenClaw를 운영하는 방법입니다.
7.1 모델 관리
| |
7.2 OpenClaw + Ollama 아키텍처
graph LR
subgraph "Local Environment"
CLI[OpenClaw CLI]
UI[Control UI]
Gateway[OpenClaw Gateway]
Ollama[Ollama Server]
end
subgraph "Ollama Models"
Qwen[qwen3-coder]
GLM[glm-4.7]
GPT[gpt-oss:20b]
end
CLI --> Gateway
UI --> Gateway
Gateway <--> Ollama
Ollama <--> Qwen
Ollama <--> GLM
Ollama <--> GPT
7.3 성능 최적화 팁
| 설정 | 권장 값 | 설명 |
|---|---|---|
| Context Window | 64k+ | 긴 문서 처리 시 필요 |
| VRAM | 8GB+ | qwen3-coder, glm-4.7 구동 |
| Threads | 4~8 | CPU 코어 수에 맞춰 설정 |
| Batch Size | 1~4 | 메모리에 따라 조정 |
| |
7. 트러블슈팅 (FAQ)
| 문제 | 해결 방법 |
|---|---|
| openclaw 명령어를 찾을 수 없어요 | export PATH=$PATH:$(npm config get prefix)/bin 실행 또는 터미널 재시작 |
| 설치 중 EACCES 오류 | sudo 대신 NVM 사용 권장. 또는 sudo chown -R $USER /usr/local/lib/node_modules |
| Docker에서 localhost 연결 실패 | host.docker.internal 대신 --network host 옵션 사용 또는 Docker Compose 설정 확인 |
| Daemon이 시작되지 않아요 | openclaw logs -f로 로그 확인 후 포트 충돈(18789) 점검 |
결론
OpenClaw는 단순한 도구가 아닌, 여러분의 로컬 환경을 AI 구동 능력을 갖춘 지능형 워크스테이션으로 탈바꿈시킵니다. 클라우드 API 의존도를 낮추고, 데이터 주권을 지키면서도 강력한 자동화를 구현할 수 있습니다.
이 가이드를 따라 설치를 완료하신 후, 가장 먼저 해 볼 만한 작업을 추천합니다:
- Notion에 자주 사용하는 템플릿 페이지 생성
- Telegram 봇과 연동하여 모바일 알림 설정
- 아침 업무 루틴(뉴스 요약, 일정 확인)을 에이전트에게 위임
로컬 AI 에이전트의 시대, OpenClaw와 함께 시작해 보세요.