Gemma 4 在 MacBook Air M1 (16GB) 本地跑:效果媲美 8 個月前頂級付費模型
實測環境
- 硬體:MacBook Air M1(16GB RAM)
- 工具:Ollama
- 模型:Gemma 4(9.1GB,推薦用
gemma4:e4b)
結果
幾乎跟 8 個月前那些頂級付費模型的表現不相上下。
社群評分大約在 GPT-3.5 Turbo 或 Claude 3.5 Sonnet v1 水準。
使用場景
作者正嘗試把 Gemma 4 丟進 Claude Code 的開發分工流程:
- 以前 Agent 任務擔心 Token 噴太快
- 現在全在本地跑,程式碼不出門,反應超快
各記憶體版本建議
- 16GB RAM:
gemma4:e4b(流暢) - 8GB VRAM / RAM:
gemma4:e2b(等待時間較長) - 26B MoE 版本:社群回報有 bug,等穩定版更新
小技巧
- 開啟 thinking mode 會更慢,建議先關掉測試
- Dell 老機器(16GB/500GB)理論上可試,先關 thinking mode