MemPalace:把 AI 記憶做成可搜尋的知識宮殿,主打全本地、零雲端、LongMemEval 96.6%
title: MemPalace:把 AI 記憶做成可搜尋的知識宮殿,主打全本地、零雲端、LongMemEval 96.6% date: 2026-04-08 source: https://github.com/milla-jovovich/mempalace category: articles tags:
- MemPalace
- AI Memory
- LongMemEval
- MCP
- Knowledge Graph
- Local-first
- Claude Code
- AAAK created: 2026-04-08 updated: 2026-04-08
MemPalace:把 AI 記憶做成可搜尋的知識宮殿,主打全本地、零雲端、LongMemEval 96.6%
概要
MemPalace 是一套本地優先(local-first)的 AI 記憶系統,核心主張不是「讓 AI 幫你摘要重要內容」,而是把完整對話、專案文件、決策過程全部留下來,再透過結構化空間讓它變得可搜尋。
它用一個很有辨識度的比喻來包裝整套系統:
- Wings:人物、專案、主題
- Rooms:具體議題,例如 auth migration、billing、deploy
- Halls:事實、事件、偏好、建議等記憶類型
- Tunnels:跨 wing 的關聯
- Closets:壓縮後的摘要層
- Drawers:原始逐字內容
這不只是 UI 概念,作者聲稱這種 palace structure 本身就能帶來 +34% retrieval boost。
它和一般 AI memory 工具最大的差別
1. 不讓 AI 先決定什麼該記住
很多 memory 工具會先做摘要,然後只保留像「user prefers Postgres」這種抽象結論。MemPalace 反過來走:
先存全部,再做結構化搜尋。
這個思路其實很對,因為很多真正有價值的東西不是最後那句結論,而是中間那段「為什麼我們放棄 A、改選 B」的推理過程。
2. 主打完全本地,不靠雲端 API
README 的定位很鮮明:
- 本地執行
- 無外部 API
- 可搭配本地模型
- SQLite / ChromaDB / 本地檔案
- 甚至可離線跑完整記憶堆疊
如果這些都成立,它對那些不想把歷史對話與專案上下文丟上雲的人,吸引力很大。
3. AAAK 是它最有野心的部分
作者設計了一個叫 AAAK 的壓縮方言,目標是讓 AI 用極少 token 載入大量上下文。
它的 claim 很兇:
- lossless shorthand dialect
- 約 30x compression
- 不需要 decoder
- Claude / GPT / Gemini / Llama / Mistral 都能直接讀
如果這件事真的穩,那它不是單純記憶庫,而是在挑戰「context loading」這個更底層問題。
亮點
1. Benchmarks 很能打
README 裡最吸睛的是這幾個數字:
- LongMemEval R@5 = 96.6%(零 API calls)
- LongMemEval R@5 = 100%(加 Haiku rerank)
- Palace structure 帶來 +34% retrieval boost
而且它還特別強調:
這是「free or paid」中最高 LongMemEval 分數之一,而且可以 reproducible。
這點很重要,因為 memory 工具常常愛講概念,不愛給 benchmark;MemPalace 至少有在正面面對 benchmark 這件事。
2. MCP 整合做得很到位
它不是只提供 CLI,而是直接給 MCP server:
- search
- taxonomy
- knowledge graph query
- diary write/read
- graph traversal
- tunnel discovery
這代表它很明確就是往 Claude / ChatGPT / Cursor / coding agent 的 runtime memory substrate 這條路走。
3. Temporal knowledge graph 很實用
它不是只有 semantic search,還有帶時間維度的 knowledge graph:
- 什麼事現在成立
- 什麼事以前成立、現在失效
- 某個人某段時間做了什麼
這個能力如果實作扎實,對追專案決策、責任變更、版本演化會非常有用。
我對它的判斷
它真正想解的是什麼問題?
不是「讓 AI 記得你喜歡什麼」,而是:
如何把長期對話、專案歷史、決策脈絡,壓縮成可載入、可搜尋、可驗證的持久記憶層。
這件事如果做好,對 coding agent、研究 agent、長週期專案協作都很有價值。
它最強的地方
我認為是這三個點:
- 結構感很強:不是亂做 embedding search,而是有 wing / room / hall / tunnel 的導航層
- 本地優先:隱私與成本論述很完整
- 對 agent 友善:MCP、wake-up、diary、knowledge graph 都是明顯為 agent workflow 設計的
它最值得懷疑的地方
但也要講實話,這 repo 的 claim 很大,幾個地方需要保留懷疑:
-
AAAK 是否真能做到「通用 LLM 無 decoder 可穩定理解」
- 這個很酷,但也最容易在實戰裡翻車
- Demo 可能漂亮,跨模型穩定性不一定一樣
-
Benchmark 與真實專案場景未必等價
- LongMemEval 分數高,不代表實際拿去跑雜亂對話、多人協作、跨專案文件就同樣穩
-
Palace structure 的維護成本
- 結構越漂亮,越可能有 upkeep 成本
- 自動建 wing/room 到底多準,需要長期觀察
對 Allen / BigIntTech 的啟發
這個專案值得看的,不只是它能不能直接拿來用,而是它提出了一個很對的方向:
1. AI 記憶不能只靠摘要
如果只存 summary,你會丟掉最有價值的決策脈絡。MemPalace 的「保留原文 + 快速導航」思路,比很多 summary-first 工具成熟。
2. 記憶系統應該分層
L0 / L1 / L2 / L3 memory stack 這個概念很值得借鏡:
- 永遠載入的身份與關鍵事實
- topic 觸發時再做 room recall
- 深層查詢才做全域搜尋
這比無腦把所有 memory 都塞進 context 理性很多。
3. 本地記憶層會越來越重要
尤其對 agent、內部知識、商業決策、開發紀錄,local-first memory 會越來越有吸引力。不是每個團隊都想把歷史對話丟上第三方 SaaS。
資源
- GitHub:https://github.com/milla-jovovich/mempalace
- Releases:https://github.com/milla-jovovich/mempalace/releases
一句話總結
MemPalace 值得注意,不只是因為它分數高,而是它試圖把 AI 記憶從「摘要工具」升級成一個真正可導航、可搜尋、可長期累積的本地知識系統。