Hermes Hindsight 로컬 임베디드 메모리 프로바이더 설치 매뉴얼
Hermes Hindsight 로컬 임베디드 메모리 프로바이더 설치 매뉴얼
섹션 제목: “Hermes Hindsight 로컬 임베디드 메모리 프로바이더 설치 매뉴얼”대상: 맥미니 M4 Pro (Ollama Cloud deepseek-v4-flash) → kimi-k2.6:cloud 모델 사용 중 목적: Context Compression으로 인한 “바보화” 문제 해결을 위한 지속적 메모리 도입 모드: Hindsight Local Embedded (데몬 자동 관리) 작성일: 2026-05-06
1. 설치 전 확인사항
섹션 제목: “1. 설치 전 확인사항”1-1. 현재 상태 점검
섹션 제목: “1-1. 현재 상태 점검”# 1. Hermes 버전 확인hermes --version
# 2. 현재 메모리 설정 확인hermes memory status# 예상 출력:# Built-in: always active# Provider: (none — built-in only)# Installed plugins:# • hindsight (API key / local)
# 3. config.yaml 위치 확인cat ~/.hermes/config.yaml | head -201-2. 사전 요구사항
섹션 제목: “1-2. 사전 요구사항”- Python/uv:
uv패키지 매니저 설치 (pip install uv또는curl -LsSf https://astral.sh/uv/install.sh | sh) - LLM API 키: 메모리 추출용. 아래 중 하나:
- OpenAI API Key (유료)
- Anthropic API Key (유료)
- Ollama 로컬 (무료 권장) →
base_url: http://localhost:11434/v1
- 디스크 공간: ~500MB (PostgreSQL 데몬 + hindsight-client 포함)
2. 설치 절차
섹션 제목: “2. 설치 절차”2-1. 자동 설치 (권장)
섹션 제목: “2-1. 자동 설치 (권장)”hermes memory setup# → "hindsight" 선택# → "local embedded" 선택# → LLM provider 선택:# - OpenAI / Anthropic / Gemini / Groq / OpenRouter / MiniMax / Ollama / openai-compatible2-2. 수동 설치 (커스텀 LLM 사용 시)
섹션 제목: “2-2. 수동 설치 (커스텀 LLM 사용 시)”# 1. provider 설정hermes config set memory.provider hindsight
# 2. LLM API 키 설정 (.env 또는 honcho.json 형식)# Ollama 로컬 사용 시 (무료, 권장):echo "HINDSIGHT_LLM_PROVIDER=openai_compatible" >> ~/.hermes/.envecho "HINDSIGHT_LLM_BASE_URL=http://localhost:11434/v1" >> ~/.hermes/.env
# 3. hindsight-client 설치uv pip install hindsight-client
# 4. 로컬 데몬 초기화hindsight-embed -p hermes init2-3. 설정 파일 예시 (~/.hermes/hindsight/config.json)
섹션 제목: “2-3. 설정 파일 예시 (~/.hermes/hindsight/config.json)”{ "provider": "hindsight", "mode": "local_embedded", "llm": { "provider": "openai_compatible", "base_url": "http://localhost:11434/v1", "model": "qwen3.6:27b" }, "recall": { "top_k": 5, "min_weight": 0.3 }, "compression": { "pre_extract": true }}3. 동작 확인
섹션 제목: “3. 동작 확인”3-1. 데몬 상태 확인
섹션 제목: “3-1. 데몬 상태 확인”# 로그 확인tail -f ~/.hermes/logs/hindsight-embed.log
# 데몬 실행 여부pgrep -f hindsight-embed || echo "데몬 미실행"
# 웹 UI 열기 (선택)hindsight-embed -p hermes ui start# → http://localhost:8080 (기본)3-2. 메모리 저장/검색 테스트
섹션 제목: “3-2. 메모리 저장/검색 테스트”# 터미널에서 Hermes 세션 시작hermes
# 대화 중 메모리 자동 저장 확인 (Hindsight는 대화 중 자동 추출)# 명시적 저장도 가능:# hindsight_retain(content="사용자는 Git 이슈 #40 등록을 원함")
# 검색 테스트:# hindsight_recall(query="Git 이슈")4. Context Compression과의 관계
섹션 제목: “4. Context Compression과의 관계”| 항목 | Compression만 | Hindsight + Compression |
|---|---|---|
| 대화 흐름 | 압축되면 배경참고로 격하 | 구조화된 사실로 별도 저장 |
| 다음 세션 | 대화 맥락 사라짐 | hindsight_recall로 복원 |
| 기억 정확도 | 의존적 (요약 품질) | 91.4% (LongMemEval 벤치마크) |
| 자동 추출 | 없음 | 매 턴 LLM이 중요 사실 추출 |
| 비용 | API 호출만 | API + 추출 LLM 호출 |
5. 문제 해결 (Troubleshooting)
섹션 제목: “5. 문제 해결 (Troubleshooting)”5-1. 데몬이 시작되지 않음
섹션 제목: “5-1. 데몬이 시작되지 않음”# PostgreSQL 포트 충돌 확인lsof -i :5432
# 로그 확인cat ~/.hermes/logs/hindsight-embed.log | tail -50
# 수동 재시작hindsight-embed -p hermes stophindsight-embed -p hermes start5-2. Ollama 연동 실패
섹션 제목: “5-2. Ollama 연동 실패”# Ollama 실행 확인curl http://localhost:11434/v1/models
# 모델 로드 확인ollama list
# base_url 끝에 /v1 필수# 잘못된 예: http://localhost:11434# 올바른 예: http://localhost:11434/v15-3. 메모리가 검색되지 않음
섹션 제목: “5-3. 메모리가 검색되지 않음”# 저장 여부 확인hindsight-embed -p hermes memory list
# 인덱스 재생성hindsight-embed -p hermes index rebuild6. 비용 정리
섹션 제목: “6. 비용 정리”| 항목 | Cloud (Honcho/mem0) | Hindsight 로컬 + Ollama |
|---|---|---|
| 저장 | 클라우드 서버 비용 | 0원 (로컬 디스크) |
| 추출 LLM | API 호출 비용 | 0원 (로컬 Ollama) |
| 검색 | API 호출 비용 | 0원 (로컬 임베딩) |
| 네트워크 | 외부 통신 | 내부 루프백만 |
7. 참고 자료
섹션 제목: “7. 참고 자료”[!note] 수정이력 | 2026-05-06 13:XX, 루키 (hermes) — 초안 작성