[TIP] Ollama와 OpenClaw로 1분 만에 '로컬 AI 에이전트' 구축하기
단순히 질문에 답만 하는 챗봇의 시대는 지났습니다. 이제는 내 컴퓨터의 파일을 읽고, 코드를 수정하며, 스스로 브라우징까지 수행하는 '자율형 AI 에이전트'의 시대입니다.
오늘은 오픈소스 에이전트 프레임워크인 OpenClaw와 Ollama를 연동하여 강력한 로컬 비서를 만드는 방법을 알아보겠습니다.
1. OpenClaw란 무엇인가?
OpenClaw는 과거 Clawdbot, Moltbot으로 불렸던 프로젝트의 진화형으로, Anthropic의 'Computer Use' 기능을 오픈소스로 구현한 에이전트입니다.
- 자율성: 단순 채팅을 넘어 터미널 명령 실행, 파일 시스템 제어, 웹 검색 등을 수행합니다.
- MCP 지원: Model Context Protocol(MCP)을 통해 외부 도구(GitHub, Google 등)와 플러그인처럼 연결됩니다.
- 프라이버시: Ollama와 결합하면 모든 데이터 처리가 내 컴퓨터 안에서만 이루어집니다.
2. 사전 준비: Ollama 설치 및 최신 버전 확인
OpenClaw와의 원활한 통합을 위해 Ollama v0.15 이상의 버전이 필요합니다.
- Ollama 공식 웹사이트에서 운영체제에 맞는 설치 파일을 내려받아 설치합니다.
- 터미널에서 버전을 확인합니다:
ollama --version
3. 초간단 설치 및 연동 방법
먼저 터미널을 열고 아래 명령어를 통해 OpenClaw를 설치합니다. (상세 내용은 docs.openclaw.ai/install 참고)
- macOS / Linux:
curl -fsSL https://openclaw.ai/install.sh | bash - Windows (PowerShell):
iwr -useb https://openclaw.ai/install.ps1 | iex
💡 "ollama launch"로 즉시 연동하기
Ollama v0.15 버전부터는 복잡한 설정 없이 launch 명령어 하나로 OpenClaw를 바로 실행할 수 있습니다.
실행 순서:
- 터미널에서
ollama launch를 입력합니다. - 메뉴가 나타나면 화살표 키로
openclaw를 선택합니다.
(ollama 구버전인 경우 clawdbot으로 나올수 있으니, 최신버전 업데이트필요) - 사용할 로컬 모델(예:
qwen2.5-coder등)을 선택하면 에이전트 모드가 활성화됩니다.
4. [고급 설정] AI의 기억력을 결정하는 'num_ctx' 최적화
에이전트가 복잡한 프로젝트를 분석하려면 '컨텍스트 창(Context Window)' 설정이 필수입니다. 설정이 너무 작으면 AI가 앞선 대용량 코드를 금방 잊어버립니다.
① 로컬 모델 설정 (Ollama Modelfile)
로컬 모델은 Modelfile을 통해 컨텍스트 크기를 직접 지정해야 합니다.
nano Modelfile작성:FROM qwen2.5-coder:latest PARAMETER num_ctx 32768 # 32k로 확장 (램 용량에 따라 조절)- 모델 생성:
ollama create my-agent-model -f Modelfile
② 클라우드 모델 설정 (Claude, GPT-4 API 사용 시)
OpenClaw에서 외부 API를 쓸 때는 설정 파일(~/.openclaw/openclaw.json)에서 모델 스펙을 명시해야 성능을 100% 활용할 수 있습니다.
"models": {
"anthropic/claude-3.5-sonnet": {
"contextWindow": 200000,
"maxTokens": 4096
}
}
5. 사양별 권장 컨텍스트 가이드
| 내 하드웨어 (RAM) | 권장 num_ctx | 적합한 작업 |
|---|---|---|
| 8GB | 4,096 ~ 8,192 | 간단한 스크립트 수정, 일반 대화 |
| 16GB | 16,384 ~ 32,768 | 소규모 프로젝트 분석 및 리팩토링 |
| 32GB 이상 | 64,000 ~ 128,000 | 전체 라이브러리 참조 및 복잡한 추론 |
6. 활용 예시: 무엇을 시켜볼까?
- 코드 리뷰: "현재 폴더의 모든 파일을 읽고 보안 취약점을 분석해줘."
- 자동화: "내 바탕화면에 있는 이미지 파일들을 날짜별로 폴더를 만들어 정리해줘."
- 리서치: "Brave Search를 사용해서 최신 AI 에이전트 논문 3개를 요약해."
7. 자주 묻는 질문 (FAQ)
Q. ollama launch가 작동하지 않습니다.
A. Ollama가 백그라운드에서 실행 중인지 확인하세요. 또한, v0.15 미만 버전일 경우 업데이트가 필요합니다.
Q. 컨텍스트 크기를 너무 크게 설정하면 어떻게 되나요?
A. 답변 생성 속도가 느려지거나, RAM 용량을 초과할 경우 시스템이 불안정해질 수 있습니다. 위 가이드의 권장 수치를 참고하세요.
8. 참고 자료 (References)
⚠️ 면책 조항
본 가이드의 내용은 학습 및 교육 목적으로만 사용해야 합니다. 본 가이드를 따르면서 발생하는 모든 결과에 대한 책임은 전적으로 사용자 본인에게 있습니다. 작성자는 어떠한 손해나 문제에 대해 책임지지 않습니다.
금지 사항:
- 본 내용을 악의적인 목적으로 사용하는 것을 엄격히 금지합니다.
- 타인의 권리를 침해하거나 불법적인 활동에 사용하는 것을 금지합니다.
- 상업적 목적의 무단 복제나 재배포를 금지합니다.