Rust Token Killer 还行?

2026-04-29 11:053阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

今天看到一个小工具 rtk:GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero dependencies · GitHub
宣传的是:高性能 CLI 代理,将 LLM token 消耗降低 60-90%
核心原理就是对高频的编程相关命令,“在命令输出到达 LLM 上下文之前进行过滤和压缩”。
自己用了一天的统计:
Screenshot 2026-04-21 at 22.09.161066×766 263 KB

网友解答:
--【壹】--:

这种不会影响模型工作质量吗, 不太懂

另外佬友这个图是怎么看的


--【贰】--:

有没有大佬介绍一下这个工具的原理,我怎么看不懂

看懂了,直接把重复的给删掉啊


--【叁】--:

rtk是在调用命令行时直接清理命令行的原始输出,并不是压缩历史会话,不影响cache的


--【肆】--:

这工具真的有用吗,强行截断啊
image1284×684 55 KB
我以为是

app/src/main/java/blbl/cat3399/core/prefs/AppPrefs.kt app/src/main/java/blbl/cat3399/core/theme/LauncherAliasManager.kt app/src/main/java/blbl/cat3399/core/theme/ThemePresets.kt app/src/main/java/blbl/cat3399/core/ui/ThemeColor.kt

改成类似这种

app/src/main/java/blbl/cat3399/core/prefs/AppPrefs.kt 同上/theme/LauncherAliasManager.kt 同上/core/theme/ThemePresets.kt 同上/core/ui/ThemeColor.kt

强行截断不是瞎捣乱吗


--【伍】--:

这个原理真的简单粗暴

  1. 智能过滤 - 去除噪音(评论、空格、样板文字)
  2. 分组 - 聚合相似项(按目录聚合文件,按类型聚合错误)
  3. 截断 ——保留相关上下文,减少冗余
  4. 去重 - 合并重复的、计数相同的日志行

--【陆】--:

目前从后台看 cache 的使用情况,似乎还算正常。昨天总体感觉有10%左右的token用量提升,再看看


--【柒】--:

陪一个,主要在omp里使用的
image935×765 131 KB


--【捌】--:

有没有可能, 这样搞会直接破坏cache. 我看我的opencode, 有时候100k的内容, 99k基本都是cache住的. 这样其实这一轮的耗费会特别特别低. 把cache破坏了, 导致花的更多?


--【玖】--:

其实就是前置过滤,干掉 AI 不需要的内容。然后只做高频的命令就好了


--【拾】--:

10%感觉没必要折腾了啊,不差那10%.

问题描述:

今天看到一个小工具 rtk:GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero dependencies · GitHub
宣传的是:高性能 CLI 代理,将 LLM token 消耗降低 60-90%
核心原理就是对高频的编程相关命令,“在命令输出到达 LLM 上下文之前进行过滤和压缩”。
自己用了一天的统计:
Screenshot 2026-04-21 at 22.09.161066×766 263 KB

网友解答:
--【壹】--:

这种不会影响模型工作质量吗, 不太懂

另外佬友这个图是怎么看的


--【贰】--:

有没有大佬介绍一下这个工具的原理,我怎么看不懂

看懂了,直接把重复的给删掉啊


--【叁】--:

rtk是在调用命令行时直接清理命令行的原始输出,并不是压缩历史会话,不影响cache的


--【肆】--:

这工具真的有用吗,强行截断啊
image1284×684 55 KB
我以为是

app/src/main/java/blbl/cat3399/core/prefs/AppPrefs.kt app/src/main/java/blbl/cat3399/core/theme/LauncherAliasManager.kt app/src/main/java/blbl/cat3399/core/theme/ThemePresets.kt app/src/main/java/blbl/cat3399/core/ui/ThemeColor.kt

改成类似这种

app/src/main/java/blbl/cat3399/core/prefs/AppPrefs.kt 同上/theme/LauncherAliasManager.kt 同上/core/theme/ThemePresets.kt 同上/core/ui/ThemeColor.kt

强行截断不是瞎捣乱吗


--【伍】--:

这个原理真的简单粗暴

  1. 智能过滤 - 去除噪音(评论、空格、样板文字)
  2. 分组 - 聚合相似项(按目录聚合文件,按类型聚合错误)
  3. 截断 ——保留相关上下文,减少冗余
  4. 去重 - 合并重复的、计数相同的日志行

--【陆】--:

目前从后台看 cache 的使用情况,似乎还算正常。昨天总体感觉有10%左右的token用量提升,再看看


--【柒】--:

陪一个,主要在omp里使用的
image935×765 131 KB


--【捌】--:

有没有可能, 这样搞会直接破坏cache. 我看我的opencode, 有时候100k的内容, 99k基本都是cache住的. 这样其实这一轮的耗费会特别特别低. 把cache破坏了, 导致花的更多?


--【玖】--:

其实就是前置过滤,干掉 AI 不需要的内容。然后只做高频的命令就好了


--【拾】--:

10%感觉没必要折腾了啊,不差那10%.