Caveman 這類 skill 真正補上的,不是 prompt hack,而是把語言學上的『低資訊密度』直接轉成 agent 成本優化與 context 壓縮
這則 Threads 在講一個最近很紅的 skill:caveman。原文的切法很有力:一個 3KB 的 skill 檔,可以讓 Claude 少吐 75% 的字;GitHub 一週 27K stars。
但真正值得記錄的,不只是『講話像穴居人很好笑』,而是它背後其實是在做一件很嚴肅的事:
把語言學上低資訊密度的部分,直接轉成 agent 工作流的 token 優化。
原串的核心觀察是:英文裡有很多語法上必要、但語意上接近零的字與句型,例如冠詞、客套語、填充詞、開場白。技術內容本身沒變,但包裝它們的語言結構可以被大幅壓縮。
這篇真正值得記錄的重點
1. 這不是單純 prompt hack,而是語言層的壓縮策略
Threads 裡講得很直白:
- 冠詞不帶資訊
- 客套話不帶資訊
- 「I'd be happy to help you with that」這類句子佔 token,但不增加技術實質內容
所以 caveman 的核心不是要模型亂講,而是要求它:
- 保留 technical substance
- 刪掉 fluff
- code block 不動
- 安全場景自動切回正常語氣
也就是說,它真正做的是 語言壓縮,不是知識刪減。
2. 在 agent workflow 裡,輸出 token 不是一次性浪費,而會複利進入後續 context
原串最值得 Allen 記住的一個補充,是後面作者自己說的那句:
每個 turn 省下來的 output token,會累積進 context;省一次,等於後面每一輪都少扛那些字。
這點非常關鍵。因為對 agent 系統來說,冗長輸出不只是這一輪比較貴,而是會變成:
- 後續上下文更胖
- 下一輪讀入更貴
- 整個 workflow latency 更高
- 長鏈任務越跑越重
所以 caveman 這種策略的價值,很多時候不是單輪節省,而是 context 複利壓縮。
3. 這也暴露一個現實:很多人其實正在為『語氣禮貌』買 token
原串有一句很狠,但不算誇張:
你付的每一塊錢,可能有一部分是在買「Sure, I'd be happy to help you with that」。
這句話之所以有力,是因為它點破一個真相:
- 人類喜歡禮貌輸出
- 模型也常被訓練得更完整、更安全、更社交化
- 但對某些 agentic / coding / technical 工作流,這些字其實只是成本
這讓「語氣」第一次不只是 UX 問題,而是 經濟問題。
4. 中文版本若要做,難點不只是翻譯,而是中文的冗餘結構和英文不一樣
原串最後在問:中文能不能做同樣的東西?這個問題很好。
中文當然也有冗餘,但型態跟英文不同:
- 少了冠詞這種大宗冗詞來源
- 但有語氣詞、連接詞、口頭緩衝、重複修飾、客套與格式化回應
- 還有文體選擇(白話 / 書面 / 文言)本身就會影響 token 密度
所以如果要做繁中版本,它不會只是把 caveman 翻譯過來,而是要重新做一套 中文資訊密度壓縮規則。
我的判讀
這篇真正值得記錄的,不是「像穴居人講話很好笑」,而是它讓一件事變得很具體:
在 agent 時代,語言風格本身就是成本結構。
以前大家把輸出語氣當 UX 選項;現在在長鏈 agent workflow 裡,語氣、冗詞、禮貌包裝,其實都會直接影響:
- token cost
- context 長度
- latency
- 長任務穩定性
所以 caveman 這種 skill 的真正價值,不只是風格化,而是把語言學上的『低資訊密度』轉成工程上的效率提升。
Allen 的一句話版
這篇真正值得記的,不是 caveman 讓 Claude 講話變好笑,而是它把一個很實用的事做出來:將語言學上的低資訊密度直接轉成 agent 工作流的 token 壓縮、context 減肥與成本優化。