LLM 모델 목록
LLM 모델 목록
섹션 제목: “LLM 모델 목록”맥미니 Ollama 기준 (2026-04-24 확인) OpenClaw 기본 모델:
ollama/glm-5.1:cloud
1. 서브에이전트 설정 (2026-04-24 업데이트)
섹션 제목: “1. 서브에이전트 설정 (2026-04-24 업데이트)”Fallback 체인 (자동 순환)
섹션 제목: “Fallback 체인 (자동 순환)”| # | 모델 | 역할 | 상태 | 비고 |
|---|---|---|---|---|
| 기본 | glm-5.1:cloud | 메인 (미미) | ✅ | 현재 기본 |
| 1 | kimi-k2.6:cloud | 일반/멀티모달 | ✅ fallback | 자주 사용 |
| 2 | minimax-m2.7:cloud | 긴 컨텍스트 | ✅ fallback | 자주 사용 |
| 3 | qwen3.5:cloud | 분석 | ✅ fallback | 자주 사용 |
| 4 | gemma4:31b-cloud | 멀티모달/대형 | ✅ fallback | 자주 사용 |
| 5 | gemma4:latest | 범용 로컬 | ✅ fallback | 1~4 실패 시 |
| 6 | llama3.1:latest | 범용 로컬 | ✅ fallback | 5 실패 시 |
| 7 | qwen3.5:397b-cloud | 대형 분석 | ✅ 수동 전용 | 미미아빠 명령 시만 |
설정 방법
섹션 제목: “설정 방법”수동 모델 전환:
# 특정 모델로 세션 전환/model ollama/kimi-k2.6:cloud/model ollama/qwen3.5:397b-cloud자동 fallback:
- 기본 모델 실패 시 → 1→2→3→4→5→6 순서 자동 전환
- 7번은 fallback 체인에 포함되지 않음 (수동 전환 전용)
2. 현재 사용 모델 (OpenClaw 등록)
섹션 제목: “2. 현재 사용 모델 (OpenClaw 등록)”| 모델 | 타입 | 크기 | 비고 |
|---|---|---|---|
| glm-5.1:cloud | Cloud | - | ⭐ 기본 모델 |
| kimi-k2.6:cloud | Cloud | - | ⭐ 서브에이전트 1 |
| minimax-m2.7:cloud | Cloud | - | ⭐ 서브에이전트 2 |
| qwen3.5:cloud | Cloud | - | ⭐ 서브에이전트 3 |
| gemma4:31b-cloud | Cloud | - | ⭐ 서브에이전트 4 |
| qwen3.5:397b-cloud | Cloud | - | 서브에이전트 7 (수동) |
| gemma4:latest | 로컬 | - | 서브에이전트 5 |
| llama3.1:latest | 로컬 | - | 서브에이전트 6 |
| qwen3.5:27b | 로컬 | 17 GB | 코딩 특화 |
| exaone3.5:7.8b | 로컬 | 4.8 GB | 한국어 특화 |
| gemma4-a4b-agent:latest | 로컬 | 15 GB | 에이전트 특화 |
| moondream:latest | 로컬 | 1.6 GB | Vision/이미지 분석 |
| deepseek-r1:latest | 로컬 | 4.9 GB | 추론 모델 |
| gemma4:e2b | 로컬 | 7.2 GB | 엣지 모델 |
| gemma4:e4b | 로컬 | 9.6 GB | 엣지 모델 |
3. 모델 선택 가이드
섹션 제목: “3. 모델 선택 가이드”| 용도 | 추천 모델 | 비고 |
|---|---|---|
| 일반 대화/에이전트 | glm-5.1:cloud | 기본, 빠르고 안정 |
| 코딩 (서브) | minimax-m2.7:cloud / qwen3.5:cloud | 클라우드 |
| 긴 컨텍스트 (서브) | minimax-m2.7:cloud | 197k 컨텍스트 |
| 멀티모달 (서브) | kimi-k2.6:cloud / gemma4:31b-cloud | 이미지 지원 |
| 분석 (서브) | qwen3.5:cloud | 꼼꼼한 분석 |
| 대형 분석 (수동) | qwen3.5:397b-cloud | 262k 컨텍스트, 미미아빠 지정 |
| 로컬 백업 | gemma4:latest / llama3.1:latest | 오프라인 사용 |
| 비전/이미지 | moondream:latest | 로컬, 이미지 분석 |
| 한국어 특화 | exaone3.5:7.8b | LG AI Research |
| 에이전트 자율실행 | gemma4-a4b-agent:latest | 로컬, 툴 호출 특화 |
4. 모델 관리 명령어
섹션 제목: “4. 모델 관리 명령어”# OpenClaw 설정 확인openclaw status
# 모델 전환 (수동)/model ollama/kimi-k2.6:cloud/model ollama/qwen3.5:397b-cloud
# 모델 목록ollama list
# Cloud 모델 추가ollama pull glm-5.1:cloudollama pull kimi-k2.6:cloudollama pull minimax-m2.7:cloud
# 로컬 모델 추가ollama pull gemma4:latestollama pull llama3.1:latest
# 모델 삭제ollama rm 모델명
# 실행 중인 모델 확인ollama ps5. 하드웨어 요구사항 (로컬 모델)
섹션 제목: “5. 하드웨어 요구사항 (로컬 모델)”| VRAM | 가능한 모델 |
|---|---|
| ~5 GB | exaone3.5:7.8b, gemma4:e2b, deepseek-r1, llama3.1 |
| ~10 GB | gemma4:e4b |
| ~16 GB | gemma4-a4b-agent, gemma4:26b (Q4) |
| ~20 GB | gemma4:26b, qwen3.5:27b, qwen3-vl:30b |
💡 맥미니 M4 Pro (통합 메모리)에서는 24GB 중 GPU/시스템 공유 Cloud 모델 사용 시 VRAM 불필요
6. 설정 파일 경로
섹션 제목: “6. 설정 파일 경로”| 파일 | 경로 | 내용 |
|---|---|---|
| OpenClaw 설정 | ~/.openclaw/openclaw.json | 기본 모델 + fallback + allowlist |
| 모델 레지스트리 | ~/.openclaw/agents/main/agent/models.json | 전체 모델 목록 |
[!note] 수정이력 | 2026-04-24 20:09, 미미 (openclaw 2026.4.22)