Karpathy 的 LLM Wiki 並沒有殺死 RAG:它真正做的,是把『湊資訊』的單位放大、把理解錨點固定下來,而不是讓檢索問題消失
這則 Threads 的主張很直接:Karpathy 提出的 LLM Wiki,並沒有真正解決「AI 每次都要重新獲取資訊、重新拼湊理解」這個核心痛點。
作者的觀察很尖銳,而且值得留,因為它抓到一個很多人會被敘事包裝掩蓋的點:
Wiki 看起來像是在取代 RAG,但更準確地說,它其實是把 RAG 的查詢與整理單位放大,而不是讓檢索問題本身消失。
1. Wiki 派與 RAG 派,本質上都還是在做資訊拼裝
傳統 RAG 最粗糙的版本,是 embedding + 向量距離,從一堆碎片裡撈內容出來餵模型。後來的進階版會再加入:
- 分層分類
- 標籤
- 關鍵字
- metadata 過濾
- 多路檢索融合
目的都一樣:
讓模型拿到比較對的上下文。
Wiki 派的做法,則是先把分散材料整理成比較大的知識單元,再讓模型直接讀這些整理後的頁面。
但本質上,它依然沒有跳脫「先想辦法把對的資訊湊到模型面前」這件事。
2. Wiki 的升級,在於理解錨點,而不是免檢索
這篇最有價值的地方,是提醒我們不要把 Wiki 神話成某種終局架構。
它真正的優勢比較像是:
- 對相同主題維持較一致的敘事
- 避免每次都從極碎片的內容重新拼接
- 讓人類與模型都更容易閱讀和管理
也就是說,Wiki 的價值比較偏向「理解錨定」與「單位放大」,而不是讓 retrieval 完全失去必要性。
3. 語意判斷仍然是核心,否則只是在暴力燒 token
作者還點了一個我很同意的點:
如果一個系統聲稱自己不太需要語意判斷、只靠關鍵字或大單位文件就能運作得很好,那很多時候只是因為模型夠強、token 額度夠大,能硬吃掉一堆不完全相關的內容。
這種做法不是沒有用,而是成本結構不一定漂亮。
也因此,Wiki 不是語意理解的替代品;它頂多是讓語意理解發生在更大的知識單元上。
我的判斷
這篇最值得保留的觀察是:
LLM Wiki 並沒有推翻 RAG,它比較像是把檢索與整理的粒度從碎片拉到頁面;如果沒有更好的語意判斷、更新策略與事實來源管理,Wiki 只是把「湊資訊」這件事做得更像知識系統,而不是讓它消失。