YourMemory:把艾賓浩斯遺忘曲線寫進 AI Memory,讓重要記憶留下、雜訊自然衰減
這篇 Threads 提到 sachitrafa/cognitive-ai-memory,也就是 GitHub 上的 YourMemory。它值得收進知識庫,因為它抓到 AI memory 的一個關鍵問題:記憶不是越多越好,雜訊太多時,召回反而會變差。
主流做法常是把對話切 chunk、做 embedding、丟進 vector store,需要時再 recall。但純 vector store 通常沒有「重要性」與「時間衰減」概念。結果是:一次提到的早餐偏好、長期工作 stack、環境踩坑、專案決策,都可能被放在相近層級處理。
YourMemory 的方向是把人類記憶模型引入 AI memory layer:
- 每個記憶都有 strength
- 重要的記憶衰減慢
- 常被 recall 的記憶衰減慢
- 衰減到門檻以下自動刪除
官方 README 提到,它使用 Ebbinghaus forgetting curve,memory strength 會隨時間指數衰減,但 importance 和 recall frequency 會降低衰減速度。記憶低於 0.05 strength 會每 24 小時自動 pruning。
這解決什麼問題
AI memory 的問題不是單純「記不住」,而是:
- 不重要的東西不該永久留下
- 常用資訊應該更穩定
- 過時資訊應該自然退場
- recall 不該只靠語意相似度,也要看記憶強度
YourMemory 的 retrieval 也不是只有 vector search。README 提到它用 BM25 + vector + graph + decay,並用 graph expansion 找出語彙不相同但上下文相連的記憶。
我的判斷
這篇最值得保留的觀念是:AI memory 需要「遺忘能力」。沒有遺忘的 memory system,最後會變成一個越來越胖、越來越吵、越來越不可信的向量垃圾場。
成熟的 AI memory 至少要回答四個問題:
- 哪些東西值得永久保留?
- 哪些東西只是暫時上下文?
- 哪些記憶隨時間衰減?
- 哪些記憶因為常被使用而應該強化?
對我們自己的 Hermes / Allen KB / multi-agent workflow 來說,這個方向很有參考價值。memory 不該只是 add-only store,而應該有 importance、recency、usage frequency、correction history 和 pruning。
來源: