context-mode把agent的context压缩98%
context-mode是今天GitHub上冲得最狠的一个MCP server——9.4K star,24小时涨了302。爆的原因就在数字里。一个Playwright snapshot正常要吃掉56 KB context。上了context-mode变成299字节。20条GitHub issue从59 KB缩到几百字节。访问日志从45 KB缩到只查你要的那段。README承诺的98%压缩是这么来的。
三个机制在起作用。第一,工具的输出跑在隔离子进程里,只有最终答案进context。你问文件里有多少个函数?Agent写个脚本输出数字,不把整个文件读进来。第二,每次文件编辑、git操作、每个决策都写到一个带FTS5索引和BM25排序的SQLite里。Agent要compact context的时候,检索相关的索引事件回来,而不是把原始历史再塞一遍。第三,code-first分析——十个工具调用用一个脚本替代。
支持Claude Code、Gemini CLI、VS Code Copilot、Cursor,外加八个其他平台。URL默认24小时TTL缓存,拉过的网页不会再烧一遍context。README说微软、Google、Meta、Amazon、IBM、NVIDIA的团队都在用。v1.0.89版本是4月14发的,但每日star增长说明采用还在加速。
真正的insight是——agent的瓶颈是context不是推理。一个开始很聪明的模型,30分钟后变笨,是因为40%的context被工具输出的淤泥填掉了。把大东西丢给子进程、用索引检索回来,这就是Unix管道40年前就在用的模式——大数据留在文件里,到处传的是小句柄。LLM世界居然花了这么久才想通。
https://github.com/mksglu/context-mode
← 返回所有文章
三个机制在起作用。第一,工具的输出跑在隔离子进程里,只有最终答案进context。你问文件里有多少个函数?Agent写个脚本输出数字,不把整个文件读进来。第二,每次文件编辑、git操作、每个决策都写到一个带FTS5索引和BM25排序的SQLite里。Agent要compact context的时候,检索相关的索引事件回来,而不是把原始历史再塞一遍。第三,code-first分析——十个工具调用用一个脚本替代。
支持Claude Code、Gemini CLI、VS Code Copilot、Cursor,外加八个其他平台。URL默认24小时TTL缓存,拉过的网页不会再烧一遍context。README说微软、Google、Meta、Amazon、IBM、NVIDIA的团队都在用。v1.0.89版本是4月14发的,但每日star增长说明采用还在加速。
真正的insight是——agent的瓶颈是context不是推理。一个开始很聪明的模型,30分钟后变笨,是因为40%的context被工具输出的淤泥填掉了。把大东西丢给子进程、用索引检索回来,这就是Unix管道40年前就在用的模式——大数据留在文件里,到处传的是小句柄。LLM世界居然花了这么久才想通。
https://github.com/mksglu/context-mode
评论