Claude Code 工具棧的新方向:記憶、壓縮、簡化與 LLM Wiki
這篇 Threads 很短,只列了四個東西:claude-mem、rtk、caveman、llm-wiki。但這組合其實是一個很清楚的 Claude Code / coding agent 工具棧方向:讓 agent 不只會寫 code,而是更會長期工作。
-
claude-mem claude-mem 是 Claude Code plugin,會自動捕捉 coding session 中 Claude 做過的事、用 AI 壓縮成 semantic summaries,並在未來 session 注入相關上下文。它解的是「agent 斷線就失憶」問題。README 強調 persistent memory、progressive disclosure、skill-based search、web viewer、privacy control、citations。
-
rtk rtk 是 Rust 寫的 CLI proxy,目標是把常見 dev command 的輸出在進入 LLM context 前先壓縮,宣稱可省 60-90% tokens。它會把 git status、git diff、test output、ls/tree、grep/rg 等輸出轉成 agent 更容易消化的精簡格式。這解的是「terminal output 太吃 context」問題。
-
caveman caveman 的核心很直接:why use many token when few token do trick。它是一個 Claude Code skill / 多 agent 工具,用 caveman-style 低詞彙密度溝通,主打 token 節省與更短指令。這不一定適合所有正式工作,但概念有價值:agent communication protocol 不需要像人類文章一樣冗長。
-
Karpathy LLM Wiki Karpathy 的 llm-wiki 不是工具,而是一種知識庫模式:不要只做 RAG,每次查詢才從 raw documents 重新拼答案;而是讓 LLM 增量維護一個 persistent wiki。Raw sources 是真相來源,wiki 是 LLM 生成與維護的結構化 markdown,schema / AGENTS.md / CLAUDE.md 是維護規則。每次 ingest、query、lint 都會讓知識庫變得更好。
這四個合在一起,剛好對應 agent 長期工作的四個瓶頸:
- 記憶:claude-mem 讓 session 可累積。
- 成本:rtk / caveman 降低 token 消耗。
- 知識:llm-wiki 讓知識不是每次重新 RAG,而是持續編譯。
- 操作紀律:透過 skills / schema / hooks,把 agent 行為制度化。
對 BigIntTech 的啟發很直接:我們已經有 Allen KB、skills、memory、agent workspace,接下來要做的不是單純塞更多記憶,而是建立「可維護的知識編譯層」。每個專案應該有 raw sources、wiki、schema、log、lint 流程。Agent 不只回答問題,也要持續整理、更新、發現矛盾、補 cross-links。
我的判斷:coding agent 的下一輪競爭,不只是模型誰比較會寫 code,而是誰的工作環境能讓 agent 記得久、花得少、查得準、累積得起來。claude-mem、rtk、caveman、llm-wiki 各自很小,但合在一起就是「agent operating system」的雛形。
來源: