콘텐츠로 이동

Hermes Hindsight 로컬 임베디드 메모리 프로바이더 설치 매뉴얼

Hermes Hindsight 로컬 임베디드 메모리 프로바이더 설치 매뉴얼

섹션 제목: “Hermes Hindsight 로컬 임베디드 메모리 프로바이더 설치 매뉴얼”

대상: 맥미니 M4 Pro (Ollama Cloud deepseek-v4-flash) → kimi-k2.6:cloud 모델 사용 중 목적: Context Compression으로 인한 “바보화” 문제 해결을 위한 지속적 메모리 도입 모드: Hindsight Local Embedded (데몬 자동 관리) 작성일: 2026-05-06


Terminal window
# 1. Hermes 버전 확인
hermes --version
# 2. 현재 메모리 설정 확인
hermes memory status
# 예상 출력:
# Built-in: always active
# Provider: (none — built-in only)
# Installed plugins:
# • hindsight (API key / local)
# 3. config.yaml 위치 확인
cat ~/.hermes/config.yaml | head -20
  • Python/uv: uv 패키지 매니저 설치 (pip install uv 또는 curl -LsSf https://astral.sh/uv/install.sh | sh)
  • LLM API 키: 메모리 추출용. 아래 중 하나:
    • OpenAI API Key (유료)
    • Anthropic API Key (유료)
    • Ollama 로컬 (무료 권장)base_url: http://localhost:11434/v1
  • 디스크 공간: ~500MB (PostgreSQL 데몬 + hindsight-client 포함)

Terminal window
hermes memory setup
# → "hindsight" 선택
# → "local embedded" 선택
# → LLM provider 선택:
# - OpenAI / Anthropic / Gemini / Groq / OpenRouter / MiniMax / Ollama / openai-compatible

2-2. 수동 설치 (커스텀 LLM 사용 시)

섹션 제목: “2-2. 수동 설치 (커스텀 LLM 사용 시)”
Terminal window
# 1. provider 설정
hermes config set memory.provider hindsight
# 2. LLM API 키 설정 (.env 또는 honcho.json 형식)
# Ollama 로컬 사용 시 (무료, 권장):
echo "HINDSIGHT_LLM_PROVIDER=openai_compatible" >> ~/.hermes/.env
echo "HINDSIGHT_LLM_BASE_URL=http://localhost:11434/v1" >> ~/.hermes/.env
# 3. hindsight-client 설치
uv pip install hindsight-client
# 4. 로컬 데몬 초기화
hindsight-embed -p hermes init

2-3. 설정 파일 예시 (~/.hermes/hindsight/config.json)

섹션 제목: “2-3. 설정 파일 예시 (~/.hermes/hindsight/config.json)”
{
"provider": "hindsight",
"mode": "local_embedded",
"llm": {
"provider": "openai_compatible",
"base_url": "http://localhost:11434/v1",
"model": "qwen3.6:27b"
},
"recall": {
"top_k": 5,
"min_weight": 0.3
},
"compression": {
"pre_extract": true
}
}

Terminal window
# 로그 확인
tail -f ~/.hermes/logs/hindsight-embed.log
# 데몬 실행 여부
pgrep -f hindsight-embed || echo "데몬 미실행"
# 웹 UI 열기 (선택)
hindsight-embed -p hermes ui start
# → http://localhost:8080 (기본)
Terminal window
# 터미널에서 Hermes 세션 시작
hermes
# 대화 중 메모리 자동 저장 확인 (Hindsight는 대화 중 자동 추출)
# 명시적 저장도 가능:
# hindsight_retain(content="사용자는 Git 이슈 #40 등록을 원함")
# 검색 테스트:
# hindsight_recall(query="Git 이슈")

항목Compression만Hindsight + Compression
대화 흐름압축되면 배경참고로 격하구조화된 사실로 별도 저장
다음 세션대화 맥락 사라짐hindsight_recall로 복원
기억 정확도의존적 (요약 품질)91.4% (LongMemEval 벤치마크)
자동 추출없음매 턴 LLM이 중요 사실 추출
비용API 호출만API + 추출 LLM 호출

Terminal window
# PostgreSQL 포트 충돌 확인
lsof -i :5432
# 로그 확인
cat ~/.hermes/logs/hindsight-embed.log | tail -50
# 수동 재시작
hindsight-embed -p hermes stop
hindsight-embed -p hermes start
Terminal window
# Ollama 실행 확인
curl http://localhost:11434/v1/models
# 모델 로드 확인
ollama list
# base_url 끝에 /v1 필수
# 잘못된 예: http://localhost:11434
# 올바른 예: http://localhost:11434/v1
Terminal window
# 저장 여부 확인
hindsight-embed -p hermes memory list
# 인덱스 재생성
hindsight-embed -p hermes index rebuild

항목Cloud (Honcho/mem0)Hindsight 로컬 + Ollama
저장클라우드 서버 비용0원 (로컬 디스크)
추출 LLMAPI 호출 비용0원 (로컬 Ollama)
검색API 호출 비용0원 (로컬 임베딩)
네트워크외부 통신내부 루프백만


[!note] 수정이력 | 2026-05-06 13:XX, 루키 (hermes) — 초안 작성