Caveman:像原始人说话,省75%的Token
Anthropic上周承认Claude Code用户烧token的速度远超预期。社区的回应是什么?像原始人一样说话。
Caveman是Julius Brussee做的一个Claude Code技能,原理简单粗暴:砍掉Claude输出里所有没用的词。冠词没了,客套话没了,I'd be happy to help没了。一段React重渲染的解释从69个token压到19个。十个真实API任务测下来,平均省65%,最高87%。关键是只动输出token,思考token完全不碰,推理质量不变。
更有意思的是,简洁可能让模型变聪明。2026年3月的一项研究发现,限制大模型用简短回答反而让准确率提高了26个百分点。废话少了,信号密度高了。原始人模式逼模型在开口前先想清楚什么才是重要的。
上线两天,GitHub 1400 star,Hacker News 621分,首页第二热。在每个coding agent会话都在疯狂烧token的今天,一个能砍掉75%消耗又不伤代码质量的技能,不是玩具,是基础设施。
https://github.com/JuliusBrussee/caveman
← 返回所有文章
Caveman是Julius Brussee做的一个Claude Code技能,原理简单粗暴:砍掉Claude输出里所有没用的词。冠词没了,客套话没了,I'd be happy to help没了。一段React重渲染的解释从69个token压到19个。十个真实API任务测下来,平均省65%,最高87%。关键是只动输出token,思考token完全不碰,推理质量不变。
更有意思的是,简洁可能让模型变聪明。2026年3月的一项研究发现,限制大模型用简短回答反而让准确率提高了26个百分点。废话少了,信号密度高了。原始人模式逼模型在开口前先想清楚什么才是重要的。
上线两天,GitHub 1400 star,Hacker News 621分,首页第二热。在每个coding agent会话都在疯狂烧token的今天,一个能砍掉75%消耗又不伤代码质量的技能,不是玩具,是基础设施。
https://github.com/JuliusBrussee/caveman
评论