[转载+总结] Claude Code最大化使用量+避免Token浪费的最佳实践

2026-04-11 08:150阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

转载自Reddit:https://www.reddit.com/r/ClaudeCode/comments/1sd8t5u/anthropic_isnt_the_only_reason_youre_hitting/ . 一般来说我不倾向于直接转载Reddit帖子,但这篇的洞察很全面,也做了对应的实验探索,感觉对佬友们会很有帮助。

原贴英文,下面会把翻译版贴出来。在贴翻译版之前先自己放一些Claude Code计费的背景,在文章最后会有我总结的最佳实践。

背景

上下文拼接

像CC/Codex/Open Code/龙虾这样的智能体harness实际上是自动化了输入/输出构建的流水线。在实际发送到模型的上下文里不仅会包含你看到的那些输入输出,还会有很多额外的自动拼接的token:

  • 第一轮对话之前,CC会拼接一系列的文件到上下文里作为输入的一部分。其中包括系统级设置/etc/claude-code/CLAUDE.md,全局个人设置~/.claude/CLAUDE.md,全局个人规则~/.claude/rules/*.md,以及从当前目录一路往上到root目录的CLAUDE.md和规则,外加2.5K token的默认系统指令、~15K token的默认工具定义,和你加载的所有MCP定义和skill定义。
  • 后续的每一轮对话给模型的请求都包含在同一个窗口内发生过的所有输入输出历史,再拼接上自己最新一轮的输入,而并非只给模型发送最后一轮输入。这里面实际拼接的内容比看到的要长,这是因为CC为了反蒸馏会隐藏思维链和工具调用细节,但被隐藏的思维链和工具调用也在给模型发送的上下文请求内。
  • 总而言之,随着对话轮次增多,发送给模型的请求会越来越长,其中靠前的部分(比如第一轮对话之前的那一堆工具定义)会被CC重复发送很多次请求,因为每一轮请求里都有这一段。
阅读全文
问题描述:

转载自Reddit:https://www.reddit.com/r/ClaudeCode/comments/1sd8t5u/anthropic_isnt_the_only_reason_youre_hitting/ . 一般来说我不倾向于直接转载Reddit帖子,但这篇的洞察很全面,也做了对应的实验探索,感觉对佬友们会很有帮助。

原贴英文,下面会把翻译版贴出来。在贴翻译版之前先自己放一些Claude Code计费的背景,在文章最后会有我总结的最佳实践。

背景

上下文拼接

像CC/Codex/Open Code/龙虾这样的智能体harness实际上是自动化了输入/输出构建的流水线。在实际发送到模型的上下文里不仅会包含你看到的那些输入输出,还会有很多额外的自动拼接的token:

  • 第一轮对话之前,CC会拼接一系列的文件到上下文里作为输入的一部分。其中包括系统级设置/etc/claude-code/CLAUDE.md,全局个人设置~/.claude/CLAUDE.md,全局个人规则~/.claude/rules/*.md,以及从当前目录一路往上到root目录的CLAUDE.md和规则,外加2.5K token的默认系统指令、~15K token的默认工具定义,和你加载的所有MCP定义和skill定义。
  • 后续的每一轮对话给模型的请求都包含在同一个窗口内发生过的所有输入输出历史,再拼接上自己最新一轮的输入,而并非只给模型发送最后一轮输入。这里面实际拼接的内容比看到的要长,这是因为CC为了反蒸馏会隐藏思维链和工具调用细节,但被隐藏的思维链和工具调用也在给模型发送的上下文请求内。
  • 总而言之,随着对话轮次增多,发送给模型的请求会越来越长,其中靠前的部分(比如第一轮对话之前的那一堆工具定义)会被CC重复发送很多次请求,因为每一轮请求里都有这一段。
阅读全文