루키(Hermes) 프로바이더 정리 및 로컬 모델 설정
[!note] 수정이력 | 2026-05-03 16:35, 미미 (openclaw)
- 미미아빠 지시: 불필요 프로바이더 삭제 + 기본 모델 설정 + 로컬 모델 추가
루키(Hermes) 프로바이더 정리 및 로컬 모델 설정
섹션 제목: “루키(Hermes) 프로바이더 정리 및 로컬 모델 설정”📋 변경 요약
섹션 제목: “📋 변경 요약”| 항목 | 변경 전 | 변경 후 |
|---|---|---|
| 기본 모델 | kimi-k2.6 (태그 없음) | kimi-k2.6:cloud ✅ |
| fallback | deepseek-v4-flash:cloud | 동일 유지 |
| API 키 | 개인계정 Pro | 구글계정 Max ✅ |
🧹 삭제된 항목
섹션 제목: “🧹 삭제된 항목”1. 프로바이더
섹션 제목: “1. 프로바이더”| 삭제 대상 | 위치 | 이유 |
|---|---|---|
| featherless | config.yaml의 providers | 불필요 외부 프로바이더 |
2. 자격증명 (credential)
섹션 제목: “2. 자격증명 (credential)”| 삭제 대상 | 위치 | 이유 |
|---|---|---|
| gemini | auth.json의 credential_pool | 불필요 외부 API |
3. API 키
섹션 제목: “3. API 키”| 삭제 대상 | 위치 | 이유 |
|---|---|---|
| GEMINI_API_KEY | .env | Google AI Studio 불필요 |
4. 보조 설정
섹션 제목: “4. 보조 설정”| 변경 대상 | 변경 전 | 변경 후 |
|---|---|---|
| vision | featherless 프로바이더 직접 지정 | auto (ollama-cloud 감지 사용) |
✅ 유지된 항목
섹션 제목: “✅ 유지된 항목”| 항목 | 값 | 용도 |
|---|---|---|
ollama-cloud | 맥스키 (구글계정) | 주요 AI 제공자 |
TELEGRAM_BOT_TOKEN | 유지 | Telegram 봇 연동 |
TELEGRAM_ALLOWED_USERS | 유지 | 사용자 인증 |
TELEGRAM_HOME_CHANNEL | 유지 | 홈 채널 설정 |
💾 로컬 모델 설정
섹션 제목: “💾 로컬 모델 설정”기존 설치 모델 (변경 없음)
섹션 제목: “기존 설치 모델 (변경 없음)”| 모델 | 크기 | 상태 |
|---|---|---|
| qwen3.6:27b | 17GB | ✅ 설치됨 |
| qwen3.6:35b-a3b-coding-nvfp4 | 21GB | ✅ 설치됨 |
| gemma4:latest | 9.6GB | ✅ 설치됨 |
| llama3.1:latest | 4.9GB | ✅ 설치됨 |
추가 설치 중
섹션 제목: “추가 설치 중”| 모델 | 크기 | 상태 |
|---|---|---|
| gemma4:31b | 19GB | 🔄 pull 진행 중 (백그라운드) |
🔧 설정 파일 현재 상태
섹션 제목: “🔧 설정 파일 현재 상태”auth.json
섹션 제목: “auth.json”{ "credential_pool": { "ollama-cloud": [{ "access_token": "oku-9ff4b26d...", "base_url": "https://ollama.com/v1" }] }}config.yaml 핵심
섹션 제목: “config.yaml 핵심”model: default: kimi-k2.6:cloud # ✅ 수정됨 provider: custom base_url: http://localhost:11434/v1 api_key: dummy context_length: 128000
providers: {} # ✅ featherless 삭제됨
fallback_providers: '[{"provider": "custom", "model": "deepseek-v4-flash:cloud"}]'
auxiliary: vision: provider: auto # ✅ auto로 변경.env 핵심
섹션 제목: “.env 핵심”OLLAMA_API_KEY=oku-9ff4b26d... # 맥스키 (구글계정)OLLAMA_BASE_URL=https://ollama.com/v1TELEGRAM_BOT_TOKEN=...🔄 실행 이력
섹션 제목: “🔄 실행 이력”| 시간 | 작업 | 상태 |
|---|---|---|
| 16:31 | config.yaml default: kimi-k2.6:cloud 수정 | ✅ |
| 16:31 | Hermes 게이트웨이 재시작 | ✅ |
| 16:33 | auth.json gemini credential 제거 | ✅ |
| 16:35 | auth.json ollama-cloud → 맥스키 업데이트 | ✅ |
| 16:35 | config.yaml featherless 삭제 | ✅ |
| 16:35 | config.yaml vision → auto 변경 | ✅ |
| 16:35 | .env GEMINI_API_KEY 삭제 | ✅ |
| 16:35 | gemma4:31b pull 시작 | 🔄 진행 중 |
| 16:36 | Hermes 게이트웨이 최종 재시작 | ✅ |
✅ 검수 체크리스트
섹션 제목: “✅ 검수 체크리스트”- 루키
/new→kimi-k2.6:cloud응답 정상 -
/model피커에 ollama-cloud만 표시 - featherless/gemini 등 불필요 프로바이더 미표시
- fallback
deepseek-v4-flash:cloud동작 - gemma4:31b pull 완료 후 로컬 모델 선택 가능
📁 저장 위치
섹션 제목: “📁 저장 위치”MiniCITY(v0.5_PARA_0502-)/02_AREAS(영역)/에이전트운영/hermes/
미미아빠, 지금 루키 /new 테스트해볼래? kimi-k2.6:cloud 정상 응답해야 해.