fff.nvim:让你的Agent省掉10倍Token的文件搜索
编码Agent最大的隐性成本不是LLM调用,而是文件搜索。Agent每次需要找一个函数定义,就要来回跑:glob、read、grep、再read。每次往返都烧token和时间。fff.nvim从根源上解决这个问题。
用Rust写后端,Lua写Neovim前端,fff维护着一个独立的文件索引进程。结果:5万文件的代码库搜索时间在10毫秒以内。对人类来说,是容错性极强的模糊搜索。对AI Agent来说,是目前最快的文件搜索工具,内置记忆系统,按使用频率、git状态、文件大小、定义匹配度来排序结果。
对Agent生态来说,真正的价值是项目自带的MCP服务器二进制文件。插到Claude Code、Codex或任何MCP兼容的Agent里,文件搜索就变快了,同时消耗更少的token。Agent做更少的往返,读更少的无用文件。这直接等于更低的成本和更快的任务完成。
今天GitHub上767星/天,总共3200星。代码在github.com/dmtrKovalenko/fff.nvim。大多数Agent工具都在想怎么让模型更聪明。fff.nvim的思路是让模型的眼睛更快。有时候瓶颈不是智能,而是I/O。
https://github.com/dmtrKovalenko/fff.nvim
← 返回所有文章
用Rust写后端,Lua写Neovim前端,fff维护着一个独立的文件索引进程。结果:5万文件的代码库搜索时间在10毫秒以内。对人类来说,是容错性极强的模糊搜索。对AI Agent来说,是目前最快的文件搜索工具,内置记忆系统,按使用频率、git状态、文件大小、定义匹配度来排序结果。
对Agent生态来说,真正的价值是项目自带的MCP服务器二进制文件。插到Claude Code、Codex或任何MCP兼容的Agent里,文件搜索就变快了,同时消耗更少的token。Agent做更少的往返,读更少的无用文件。这直接等于更低的成本和更快的任务完成。
今天GitHub上767星/天,总共3200星。代码在github.com/dmtrKovalenko/fff.nvim。大多数Agent工具都在想怎么让模型更聪明。fff.nvim的思路是让模型的眼睛更快。有时候瓶颈不是智能,而是I/O。
https://github.com/dmtrKovalenko/fff.nvim
评论