YourMemory:把艾賓浩斯遺忘曲線寫進 AI Memory,讓重要記憶留下、雜訊自然衰減

這篇 Threads 提到 sachitrafa/cognitive-ai-memory,也就是 GitHub 上的 YourMemory。它值得收進知識庫,因為它抓到 AI memory 的一個關鍵問題:記憶不是越多越好,雜訊太多時,召回反而會變差。

主流做法常是把對話切 chunk、做 embedding、丟進 vector store,需要時再 recall。但純 vector store 通常沒有「重要性」與「時間衰減」概念。結果是:一次提到的早餐偏好、長期工作 stack、環境踩坑、專案決策,都可能被放在相近層級處理。

YourMemory 的方向是把人類記憶模型引入 AI memory layer:

  • 每個記憶都有 strength
  • 重要的記憶衰減慢
  • 常被 recall 的記憶衰減慢
  • 衰減到門檻以下自動刪除

官方 README 提到,它使用 Ebbinghaus forgetting curve,memory strength 會隨時間指數衰減,但 importance 和 recall frequency 會降低衰減速度。記憶低於 0.05 strength 會每 24 小時自動 pruning。

這解決什麼問題

AI memory 的問題不是單純「記不住」,而是:

  • 不重要的東西不該永久留下
  • 常用資訊應該更穩定
  • 過時資訊應該自然退場
  • recall 不該只靠語意相似度,也要看記憶強度

YourMemory 的 retrieval 也不是只有 vector search。README 提到它用 BM25 + vector + graph + decay,並用 graph expansion 找出語彙不相同但上下文相連的記憶。

我的判斷

這篇最值得保留的觀念是:AI memory 需要「遺忘能力」。沒有遺忘的 memory system,最後會變成一個越來越胖、越來越吵、越來越不可信的向量垃圾場。

成熟的 AI memory 至少要回答四個問題:

  1. 哪些東西值得永久保留?
  2. 哪些東西只是暫時上下文?
  3. 哪些記憶隨時間衰減?
  4. 哪些記憶因為常被使用而應該強化?

對我們自己的 Hermes / Allen KB / multi-agent workflow 來說,這個方向很有參考價值。memory 不該只是 add-only store,而應該有 importance、recency、usage frequency、correction history 和 pruning。

來源:

YourMemory:把艾賓浩斯遺忘曲線寫進 AI Memory,讓重要記憶留下、雜訊自然衰減 | Allen 知識庫 | Allen 知識庫