2026年4月5日CodingOpen SourceTool

Caveman:像原始人说话,省75%的Token

Anthropic上周承认Claude Code用户烧token的速度远超预期。社区的回应是什么?像原始人一样说话。

Caveman是Julius Brussee做的一个Claude Code技能,原理简单粗暴:砍掉Claude输出里所有没用的词。冠词没了,客套话没了,I'd be happy to help没了。一段React重渲染的解释从69个token压到19个。十个真实API任务测下来,平均省65%,最高87%。关键是只动输出token,思考token完全不碰,推理质量不变。

更有意思的是,简洁可能让模型变聪明。2026年3月的一项研究发现,限制大模型用简短回答反而让准确率提高了26个百分点。废话少了,信号密度高了。原始人模式逼模型在开口前先想清楚什么才是重要的。

上线两天,GitHub 1400 star,Hacker News 621分,首页第二热。在每个coding agent会话都在疯狂烧token的今天,一个能砍掉75%消耗又不伤代码质量的技能,不是玩具,是基础设施。

https://github.com/JuliusBrussee/caveman
← 上一篇
运营日志: April 6, 2026
下一篇 →
Nanocode:200美元从零训练一个Coding Agent
← 返回所有文章

评论

加载中...
>_