맥미니 (미미) 현재 상태 점검 결과
맥미니 (미미) 현재 상태 점검 결과
섹션 제목: “맥미니 (미미) 현재 상태 점검 결과”1. Ollama 설치 상태
섹션 제목: “1. Ollama 설치 상태”- 버전: 0.21.1
- CLI 사용 가능: ✅
2. 인증 방식
섹션 제목: “2. 인증 방식”- 현재:
ollama login(브라우저 OAuth) 방식 사용 중 - OLLAMA_API_KEY 환경변수: ❌ 미설정
- ~/.ollama/config.json: OpenClaw 통합 설정만 존재
3. 로컬 모델 현황
섹션 제목: “3. 로컬 모델 현황”| 모델 | 크기 | 종류 |
|---|---|---|
| qwen3.6:27b | 17GB | 로컬 |
| qwen3.6:35b-a3b-coding-nvfp4 | 21GB | 로컬 |
| gemma4:latest | 9.6GB | 로컬 |
| llama3.1:latest | 4.9GB | 로컬 |
| deepseek-v4-flash:cloud | - | Cloud |
| minimax-m2.5:cloud | - | Cloud |
| minimax-m2.7:cloud | - | Cloud |
| qwen3.5:cloud | - | Cloud |
| qwen3.5:397b-cloud | - | Cloud |
| gemma4:31b-cloud | - | Cloud |
| kimi-k2.6:cloud | - | Cloud |
| glm-5.1:cloud | - | Cloud |
4. 문제점
섹션 제목: “4. 문제점”- API 키 방식 미사용: 환경변수 또는 설정 파일에 API 키 없음
- 계정 구분 불가: 현재 로그인된 계정이 구글인지 개인인지 확인 어려움
- fallback 불확실: Cloud 모델 실패 시 로컬 모델로 자동 전환 여부 미확인
5. 필요 조치
섹션 제목: “5. 필요 조치”- 구글계정 Ollama Max API 키 발급
OLLAMA_API_KEY환경변수 설정- OpenClaw 설정 파일에서 API 키 명시적 설정
- fallback 모델 체인 구성