목록으로
AI 및 보안
[TIP]Claudecode&Ollama 연동하기

[TIP]Claudecode&Ollama 연동하기

렛시큐
|
2026년 1월 21일
4분 읽기
13 조회

Claude Code는 Anthropic의 AI 코딩 도구로, 로컬 환경에서 코드를 읽고 수정하고 실행할 수 있습니다. Ollama의 Anthropic 호환 API를 통해 오픈소스 모델을 사용하여 Claude Code의 기능을 확장할 수 있습니다.

🔄 설정 워크플로우

[Claude Code 설치] ──▶ [Ollama 환경 변수 설정] ──▶ [모델 실행] ──▶ [로컬 LLM 활용]
단계작업 내용결과
1Claude Code 설치AI 코딩 도구 사용 가능
2환경 변수 설정Ollama API 연결
3모델 선택 및 실행로컬 LLM 사용
4ollama.com 연결 (선택)클라우드 모델 사용

📖 상세 가이드

Step 1: Claude Code 설치

먼저 Claude Code를 시스템에 설치해야 합니다.

macOS / Linux:

curl -fsSL https://claude.ai/install.sh | bash

Windows (PowerShell):

irm https://claude.ai/install.ps1 | iex

Step 2: 로컬 Ollama와 연동

로컬에서 실행 중인 Ollama 서버와 연결합니다.

1. 환경 변수 설정:

export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

2. Claude Code 실행:

claude --model gpt-oss:20b

또는 환경 변수와 함께 한 줄로 실행:

ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude --model gpt-oss:20b

중요: Claude Code는 큰 컨텍스트 윈도우가 필요합니다. 최소 32K 토큰을 권장합니다. Ollama에서 컨텍스트 길이를 조정하는 방법은 Ollama 컨텍스트 길이 문서를 참고하세요.

Step 3: ollama.com 클라우드 연결 (선택)

클라우드 기반 모델을 사용하려면 ollama.com에 연결할 수 있습니다.

1. API 키 생성:

ollama.com/settings/keys에서 API 키를 생성하세요.

2. 환경 변수 설정:

export ANTHROPIC_BASE_URL=https://ollama.com
export ANTHROPIC_API_KEY=<your-api-key>

3. 클라우드 모델 실행:

claude --model glm-4.7:cloud

📊 추천 모델 비교

클라우드 모델

모델특징용도
glm-4.7:cloud고성능 클라우드 모델복잡한 작업
minimax-m2.1:cloud빠른 클라우드 모델빠른 응답 필요시
qwen3-coder:480b대형 코딩 모델고급 코딩 작업

로컬 모델

모델특징용도
qwen3-coder코딩 작업에 최적화코드 작성 및 리뷰
gpt-oss:20b강력한 범용 모델일반적인 작업
gpt-oss:120b대형 범용 모델복잡한 작업

🛠️ 트러블슈팅

문제원인해결 방법
연결 거부Ollama가 실행 중이 아님ollama serve 실행
인증 오류환경 변수 설정 오류ANTHROPIC_AUTH_TOKEN=ollama 확인
컨텍스트 부족컨텍스트 윈도우 부족최소 32K 토큰 설정
모델 찾기 실패모델 이름 오타정확한 모델 이름 확인

✨ 활용 팁

  1. 환경 변수 영구 저장: .bashrc 또는 .zshrc에 환경 변수를 추가하여 매번 설정하지 않아도 됩니다
  2. 모델 실험: 작업 유형에 따라 다른 모델을 시도해보세요
  3. 컨텍스트 관리: 큰 프로젝트에서는 컨텍스트 길이를 늘리는 것이 좋습니다
  4. 로컬 우선: 개인정보 보호를 위해 로컬 모델을 우선 사용하세요

📚 추가 자료

  • Claude Code 공식 문서: Claude Code 설명서
  • Ollama 공식 문서: Ollama 사용 가이드
  • Ollama 모델 라이브러리: 사용 가능한 모든 모델

★ Insight ─────────────────────────────────────
로컬 LLM 사용의 장점은 데이터 프라이버시와 오프라인 작업 가능성입니다.
하지만 클라우드 모델은 일반적으로 더 강력한 성능을 제공합니다.
작업의 성격과 요구사항에 따라 적절한 모델을 선택하는 것이 중요합니다.
─────────────────────────────────────────────────


⚠️ 면책 조항

본 가이드를 따르면서 발생하는 모든 결과에 대한 책임은 전적으로 사용자 본인에게 있습니다. 이 문서는 참고용으로 제공되며, 작성자는 어떠한 손해나 문제에 대해 책임지지 않습니다.

금지 사항:

  • 본 내용을 악의적인 목적으로 사용하는 것을 엄격히 금지합니다.
  • 타인의 권리를 침해하거나 불법적인 활동에 사용하는 것을 금지합니다.
  • 상업적 목적의 무단 복제나 재배포를 금지합니다.

본 가이드의 내용은 학습 및 교육 목적으로만 사용해야 합니다.

태그

#Claudecode#ollama#llm#ai
LETSECU

AI Security Tech Partner. Advanced Information Security Solutions.

Email: int_x@letsecu.com
Tel: 02-6941-0088

서울특별시 관악구 남부순환로 1677-20, 2층
대표: 김민호 사업자번호: 370-87-03101

© 2026 LETSECU Corp.