Caveman — 让 AI 编程助手说"穴居人话"省 Token
> 一句话版本:一个 Claude Code 插件,让 AI 回答问题时去掉所有废话和客套话,只说重点,能省 65% 的输出 token,同时技术准确性完全不变。
| 项目 | 信息 | |
|---|---|---|
| 来源 | https://github.com/JuliusBrussee/caveman | |
| 作者 | Julius Brussee | |
| 许可证 | MIT | |
| 创建时间 | 2026-04-04 | |
| 语言 | Python | |
| Stars | 6,466 | Forks 245 |
核心内容
Caveman 基于"LLM 说穴居人话也能保持技术准确性"这个病毒式观察,做成了一个一键安装的插件。核心思路:去掉 AI 回复中的客套话、填充词、hedging,只保留技术内容。
对比示例
正常:"The reason your React component is re-rendering is likely because you're creating a new object reference on each render cycle. When you pass an inline object as a prop, React's shallow comparison sees it as a different object every time, which triggers a re-render. I'd recommend using useMemo to memoize the object."(1180 tokens)
Caveman:"New object ref each render. Inline object prop = new ref = re-render. Wrap in useMemo."(159 tokens,省 87%)
三档强度
| 级别 | 触发 | 效果 |
|---|---|---|
| Lite | /caveman lite | 去掉填充词,保留语法,专业但精简 |
| Full | /caveman full | 默认模式,去冠词、碎片化、完整穴居人 |
| Ultra | /caveman ultra | 极限压缩,电报体,缩写一切 |
实际效果
| 任务 | 正常 tokens | Caveman tokens | 节省 |
|---|---|---|---|
| React re-render bug | 1,180 | 159 | -87% |
| PostgreSQL 连接池 | 2,347 | 380 | -84% |
| Docker 多阶段构建 | 1,042 | 290 | -72% |
| auth middleware 修复 | 704 | 121 | -83% |
| **平均** | **1,214** | **294** | **-65%** |
Caveman Compress(输入端压缩)
除了输出压缩,还有配套工具压缩输入 token:
- 压缩 CLAUDE.md 等记忆文件(每次会话都会加载)
- 保留人类可读的
.original.md备份 - 代码块、URL、文件路径、版本号等技术内容不压缩
- 平均节省 ~45% 输入 token
规则
| 内容 | 处理方式 |
|---|---|
| 代码块 | ✍️ 正常写 |
| 技术术语 | 🧠 原样保留(polymorphism 还是 polymorphism) |
| 错误信息 | 📋 原样引用 |
| Git commit / PR | ✍️ 正常写 |
| 冠词(a, an, the) | 💀 删掉 |
| 客套话 | 💀 "Sure I'd be happy to" 消灭 |
| Hedging | 💀 "It might be worth considering" 灭绝 |
科学依据
2026年3月论文 Brevity Constraints Reverse Performance Hierarchies in Language Models 发现:限制大模型简洁回答反而提升了 26 个百分点的准确率。啰嗦不等于好。
分析
优势:
- 安装极简(一行命令),立刻生效
- 4 天 6.4k stars,增长极快
- 不影响技术准确性,只砍废话
- 输出+输入双端压缩,配合使用效果叠加
- 有学术支撑(不是纯 meme 项目)
与 rtk 的区别:
- rtk 压缩命令输出(git status、test 等),减少输入 token
- caveman 压缩 AI 回复本身,减少输出 token
- 两者互补,一起用可以双向省 token
风险:
- 项目仅 4 天,非常新
- 可能不适合需要详细解释的场景(教学、文档生成)
- 目前主要面向 Claude Code 生态
- 部分 AI 工具的 hook 支持可能不稳定
与 Jay 的关联:
- Jay 用 Claude Code / OpenClaw,可以直接用
- 和 rtk 互补:rtk 省"喂给 AI 的 token",caveman 省"AI 吐出的 token"
- 幽默实用,降低 API 费用的同时增加乐趣
评分
| 维度 | 评分 (1-10) | 说明 |
|---|---|---|
| 创新性 | 8 | 简单粗暴但有效,有学术支撑 |
| 实用性 | 8 | 一行安装,立刻省钱 |
| 代码质量 | 6 | 简单 prompt 工程,非复杂系统 |
| 文档 | 8 | README 写得有趣且详细 |
| 生态 | 6 | 4 天新项目,但增长快 |
| 可维护性 | 5 | 个人项目,依赖 AI 工具 hook 稳定性 |
| **总分** | **6.8** | 好玩又实用,值得装上试试 |