콘텐츠로 이동

루키(Hermes) 프로바이더 정리 및 로컬 모델 설정

[!note] 수정이력 | 2026-05-03 16:35, 미미 (openclaw)

  • 미미아빠 지시: 불필요 프로바이더 삭제 + 기본 모델 설정 + 로컬 모델 추가

루키(Hermes) 프로바이더 정리 및 로컬 모델 설정

섹션 제목: “루키(Hermes) 프로바이더 정리 및 로컬 모델 설정”
항목변경 전변경 후
기본 모델kimi-k2.6 (태그 없음)kimi-k2.6:cloud
fallbackdeepseek-v4-flash:cloud동일 유지
API 키개인계정 Pro구글계정 Max
삭제 대상위치이유
featherlessconfig.yamlproviders불필요 외부 프로바이더
삭제 대상위치이유
geminiauth.jsoncredential_pool불필요 외부 API
삭제 대상위치이유
GEMINI_API_KEY.envGoogle AI Studio 불필요
변경 대상변경 전변경 후
visionfeatherless 프로바이더 직접 지정auto (ollama-cloud 감지 사용)
항목용도
ollama-cloud맥스키 (구글계정)주요 AI 제공자
TELEGRAM_BOT_TOKEN유지Telegram 봇 연동
TELEGRAM_ALLOWED_USERS유지사용자 인증
TELEGRAM_HOME_CHANNEL유지홈 채널 설정
모델크기상태
qwen3.6:27b17GB✅ 설치됨
qwen3.6:35b-a3b-coding-nvfp421GB✅ 설치됨
gemma4:latest9.6GB✅ 설치됨
llama3.1:latest4.9GB✅ 설치됨
모델크기상태
gemma4:31b19GB🔄 pull 진행 중 (백그라운드)
{
"credential_pool": {
"ollama-cloud": [{
"access_token": "oku-9ff4b26d...",
"base_url": "https://ollama.com/v1"
}]
}
}
model:
default: kimi-k2.6:cloud # ✅ 수정됨
provider: custom
base_url: http://localhost:11434/v1
api_key: dummy
context_length: 128000
providers: {} # ✅ featherless 삭제됨
fallback_providers: '[{"provider": "custom", "model": "deepseek-v4-flash:cloud"}]'
auxiliary:
vision:
provider: auto # ✅ auto로 변경
Terminal window
OLLAMA_API_KEY=oku-9ff4b26d... # 맥스키 (구글계정)
OLLAMA_BASE_URL=https://ollama.com/v1
TELEGRAM_BOT_TOKEN=...
시간작업상태
16:31config.yaml default: kimi-k2.6:cloud 수정
16:31Hermes 게이트웨이 재시작
16:33auth.json gemini credential 제거
16:35auth.json ollama-cloud → 맥스키 업데이트
16:35config.yaml featherless 삭제
16:35config.yaml vision → auto 변경
16:35.env GEMINI_API_KEY 삭제
16:35gemma4:31b pull 시작🔄 진행 중
16:36Hermes 게이트웨이 최종 재시작
  • 루키 /newkimi-k2.6:cloud 응답 정상
  • /model 피커에 ollama-cloud만 표시
  • featherless/gemini 등 불필요 프로바이더 미표시
  • fallback deepseek-v4-flash:cloud 동작
  • gemma4:31b pull 완료 후 로컬 모델 선택 가능

MiniCITY(v0.5_PARA_0502-)/02_AREAS(영역)/에이전트운영/hermes/


미미아빠, 지금 루키 /new 테스트해볼래? kimi-k2.6:cloud 정상 응답해야 해.