Rust Token Killer 还行?
- 内容介绍
- 文章标签
- 相关推荐
今天看到一个小工具 rtk:GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero dependencies · GitHub
宣传的是:高性能 CLI 代理,将 LLM token 消耗降低 60-90%
核心原理就是对高频的编程相关命令,“在命令输出到达 LLM 上下文之前进行过滤和压缩”。
自己用了一天的统计:
Screenshot 2026-04-21 at 22.09.161066×766 263 KB
--【壹】--:
这种不会影响模型工作质量吗, 不太懂
另外佬友这个图是怎么看的
--【贰】--:
有没有大佬介绍一下这个工具的原理,我怎么看不懂
看懂了,直接把重复的给删掉啊
--【叁】--:
rtk是在调用命令行时直接清理命令行的原始输出,并不是压缩历史会话,不影响cache的
--【肆】--:
这工具真的有用吗,强行截断啊
image1284×684 55 KB
我以为是
app/src/main/java/blbl/cat3399/core/prefs/AppPrefs.kt
app/src/main/java/blbl/cat3399/core/theme/LauncherAliasManager.kt
app/src/main/java/blbl/cat3399/core/theme/ThemePresets.kt
app/src/main/java/blbl/cat3399/core/ui/ThemeColor.kt
改成类似这种
app/src/main/java/blbl/cat3399/core/prefs/AppPrefs.kt
同上/theme/LauncherAliasManager.kt
同上/core/theme/ThemePresets.kt
同上/core/ui/ThemeColor.kt
强行截断不是瞎捣乱吗
--【伍】--:
这个原理真的简单粗暴
- 智能过滤 - 去除噪音(评论、空格、样板文字)
- 分组 - 聚合相似项(按目录聚合文件,按类型聚合错误)
- 截断 ——保留相关上下文,减少冗余
- 去重 - 合并重复的、计数相同的日志行
--【陆】--:
目前从后台看 cache 的使用情况,似乎还算正常。昨天总体感觉有10%左右的token用量提升,再看看
--【柒】--:
陪一个,主要在omp里使用的
image935×765 131 KB
--【捌】--:
有没有可能, 这样搞会直接破坏cache. 我看我的opencode, 有时候100k的内容, 99k基本都是cache住的. 这样其实这一轮的耗费会特别特别低. 把cache破坏了, 导致花的更多?
--【玖】--:
其实就是前置过滤,干掉 AI 不需要的内容。然后只做高频的命令就好了
--【拾】--:
10%感觉没必要折腾了啊,不差那10%.
今天看到一个小工具 rtk:GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero dependencies · GitHub
宣传的是:高性能 CLI 代理,将 LLM token 消耗降低 60-90%
核心原理就是对高频的编程相关命令,“在命令输出到达 LLM 上下文之前进行过滤和压缩”。
自己用了一天的统计:
Screenshot 2026-04-21 at 22.09.161066×766 263 KB
--【壹】--:
这种不会影响模型工作质量吗, 不太懂
另外佬友这个图是怎么看的
--【贰】--:
有没有大佬介绍一下这个工具的原理,我怎么看不懂
看懂了,直接把重复的给删掉啊
--【叁】--:
rtk是在调用命令行时直接清理命令行的原始输出,并不是压缩历史会话,不影响cache的
--【肆】--:
这工具真的有用吗,强行截断啊
image1284×684 55 KB
我以为是
app/src/main/java/blbl/cat3399/core/prefs/AppPrefs.kt
app/src/main/java/blbl/cat3399/core/theme/LauncherAliasManager.kt
app/src/main/java/blbl/cat3399/core/theme/ThemePresets.kt
app/src/main/java/blbl/cat3399/core/ui/ThemeColor.kt
改成类似这种
app/src/main/java/blbl/cat3399/core/prefs/AppPrefs.kt
同上/theme/LauncherAliasManager.kt
同上/core/theme/ThemePresets.kt
同上/core/ui/ThemeColor.kt
强行截断不是瞎捣乱吗
--【伍】--:
这个原理真的简单粗暴
- 智能过滤 - 去除噪音(评论、空格、样板文字)
- 分组 - 聚合相似项(按目录聚合文件,按类型聚合错误)
- 截断 ——保留相关上下文,减少冗余
- 去重 - 合并重复的、计数相同的日志行
--【陆】--:
目前从后台看 cache 的使用情况,似乎还算正常。昨天总体感觉有10%左右的token用量提升,再看看
--【柒】--:
陪一个,主要在omp里使用的
image935×765 131 KB
--【捌】--:
有没有可能, 这样搞会直接破坏cache. 我看我的opencode, 有时候100k的内容, 99k基本都是cache住的. 这样其实这一轮的耗费会特别特别低. 把cache破坏了, 导致花的更多?
--【玖】--:
其实就是前置过滤,干掉 AI 不需要的内容。然后只做高频的命令就好了
--【拾】--:
10%感觉没必要折腾了啊,不差那10%.

