콘텐츠로 이동

LLM 모델 목록

맥미니 Ollama 기준 (2026-04-24 확인) OpenClaw 기본 모델: ollama/glm-5.1:cloud


1. 서브에이전트 설정 (2026-04-24 업데이트)

섹션 제목: “1. 서브에이전트 설정 (2026-04-24 업데이트)”
#모델역할상태비고
기본glm-5.1:cloud메인 (미미)현재 기본
1kimi-k2.6:cloud일반/멀티모달✅ fallback자주 사용
2minimax-m2.7:cloud긴 컨텍스트✅ fallback자주 사용
3qwen3.5:cloud분석✅ fallback자주 사용
4gemma4:31b-cloud멀티모달/대형✅ fallback자주 사용
5gemma4:latest범용 로컬✅ fallback1~4 실패 시
6llama3.1:latest범용 로컬✅ fallback5 실패 시
7qwen3.5:397b-cloud대형 분석✅ 수동 전용미미아빠 명령 시만

수동 모델 전환:

Terminal window
# 특정 모델로 세션 전환
/model ollama/kimi-k2.6:cloud
/model ollama/qwen3.5:397b-cloud

자동 fallback:

  • 기본 모델 실패 시 → 1→2→3→4→5→6 순서 자동 전환
  • 7번은 fallback 체인에 포함되지 않음 (수동 전환 전용)

모델타입크기비고
glm-5.1:cloudCloud-기본 모델
kimi-k2.6:cloudCloud-⭐ 서브에이전트 1
minimax-m2.7:cloudCloud-⭐ 서브에이전트 2
qwen3.5:cloudCloud-⭐ 서브에이전트 3
gemma4:31b-cloudCloud-⭐ 서브에이전트 4
qwen3.5:397b-cloudCloud-서브에이전트 7 (수동)
gemma4:latest로컬-서브에이전트 5
llama3.1:latest로컬-서브에이전트 6
qwen3.5:27b로컬17 GB코딩 특화
exaone3.5:7.8b로컬4.8 GB한국어 특화
gemma4-a4b-agent:latest로컬15 GB에이전트 특화
moondream:latest로컬1.6 GBVision/이미지 분석
deepseek-r1:latest로컬4.9 GB추론 모델
gemma4:e2b로컬7.2 GB엣지 모델
gemma4:e4b로컬9.6 GB엣지 모델

용도추천 모델비고
일반 대화/에이전트glm-5.1:cloud기본, 빠르고 안정
코딩 (서브)minimax-m2.7:cloud / qwen3.5:cloud클라우드
긴 컨텍스트 (서브)minimax-m2.7:cloud197k 컨텍스트
멀티모달 (서브)kimi-k2.6:cloud / gemma4:31b-cloud이미지 지원
분석 (서브)qwen3.5:cloud꼼꼼한 분석
대형 분석 (수동)qwen3.5:397b-cloud262k 컨텍스트, 미미아빠 지정
로컬 백업gemma4:latest / llama3.1:latest오프라인 사용
비전/이미지moondream:latest로컬, 이미지 분석
한국어 특화exaone3.5:7.8bLG AI Research
에이전트 자율실행gemma4-a4b-agent:latest로컬, 툴 호출 특화

Terminal window
# OpenClaw 설정 확인
openclaw status
# 모델 전환 (수동)
/model ollama/kimi-k2.6:cloud
/model ollama/qwen3.5:397b-cloud
# 모델 목록
ollama list
# Cloud 모델 추가
ollama pull glm-5.1:cloud
ollama pull kimi-k2.6:cloud
ollama pull minimax-m2.7:cloud
# 로컬 모델 추가
ollama pull gemma4:latest
ollama pull llama3.1:latest
# 모델 삭제
ollama rm 모델명
# 실행 중인 모델 확인
ollama ps

5. 하드웨어 요구사항 (로컬 모델)

섹션 제목: “5. 하드웨어 요구사항 (로컬 모델)”
VRAM가능한 모델
~5 GBexaone3.5:7.8b, gemma4:e2b, deepseek-r1, llama3.1
~10 GBgemma4:e4b
~16 GBgemma4-a4b-agent, gemma4:26b (Q4)
~20 GBgemma4:26b, qwen3.5:27b, qwen3-vl:30b

💡 맥미니 M4 Pro (통합 메모리)에서는 24GB 중 GPU/시스템 공유 Cloud 모델 사용 시 VRAM 불필요


파일경로내용
OpenClaw 설정~/.openclaw/openclaw.json기본 모델 + fallback + allowlist
모델 레지스트리~/.openclaw/agents/main/agent/models.json전체 모델 목록

[!note] 수정이력 | 2026-04-24 20:09, 미미 (openclaw 2026.4.22)