解决 ClaudeCode 执行 Bash 命令卡 Running 很久的问题

2026-04-29 08:132阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

各位佬好,说个最近踩的坑。

我发现 claude code 执行 bash 命令会一直 running,很久才超时。
哪怕只是 node -vpnpm -v 这种最基础的命令都会卡。

一开始我还以为是终端问题,后来抓包看了下才发现,根本不是 bash 的锅。

claude code 每次新对话,都会额外发一个后台请求,用 small 模型判断你是不是新话题,大概像这样:

image2088×1228 277 KB

而且你每执行一次 bash,它都会再发一个 small 请求去“总结提取结果”,像这样:

image2128×1436 430 KB

问题就出在这里。

这个 fast_small 模型如果不老实,比如:

  • 自动触发长时间思考
  • 渠道本身卡
  • 你压根没这个模型,走默认 haiku 结果中转慢

那这个后台请求就会卡住。

本来只需要它返回:

{"isNewTopic": false, "title": null}

<is_displaying_contents> false </is_displaying_contents> <filepaths> </filepaths>

结果它给你思考几十秒,于是你的 bash 命令也被拖着卡几十秒。


解决办法很简单:

把 SMALL_FAST_MODEL 换成一个返回快、不会自动思考的 instruct 模型。

千万别用那种会自动进入推理模式的模型。

我现在是这么配的:

{ "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1", "CLAUDE_CODE_ATTRIBUTION_HEADER": "0", "ANTHROPIC_BASE_URL": "https://www.***.com", "ANTHROPIC_AUTH_TOKEN": "sk-**********", "ANTHROPIC_SMALL_FAST_MODEL": "kimi-k2-instruct-0905" }

关键就是这行:

"ANTHROPIC_SMALL_FAST_MODEL": "kimi-k2-instruct-0905"

small 这个模型我路由到 kimi-k2-instruct-0905。

也可以用 kimi-k2-0905 / kimi-k2-instruct 之类的,重点是:要快,要稳定,不要思考。

不要用 glm-4.5-flash / glm-4.7-flash / gemini-2.5-flash / gemini-3-flash 它们会自动推理,经常会遇到推理十几秒的情况,不稳定。

这些后台任务根本不需要质量,只要秒回就行。

之前我故意配错路由,让它走 kimi-k2.5,结果那货触发了思考,直接给我耗时 85 秒,bash 命令就卡了 85 秒。

image2110×654 95 KB

换成 instruct 之后,后台请求几百 ms 返回。

bash 直接秒出结果。

image1920×1742 409 KB


佬可能会问:会不会影响 haiku?

不会。

这个只影响后台 small 任务,不影响主对话模型。

如果你 bash 经常卡,多半就是 small 模型慢或者渠道挂了。

就这么简单。

首推站内公益WOW的 kimi-k2-instruct-0905,几百 MS 的返回速度,屌得飞起.快去试试吧.

网友解答:
--【壹】--:

我自己实测推荐模型:

WOW:
qwen3-next-80b-a3b-instruct
qwen3-coder-480b-a35b-instruct
kimi-k2-instruct-0905

魔搭:
Qwen/Qwen3-Coder-30B-A3B-Instruct
Qwen/Qwen3-Coder-480B-A35B-Instruct
Qwen/Qwen3-235B-A22B-Instruct-2507
Qwen/Qwen3-Next-80B-A3B-Instruct

都是免费的,速度最快的毫无疑问就是魔搭的,基本都是几百 MS.
但魔搭需要多几个apikey,单个apikey容易触发频率限制.
可以多几个 apikey 轮询.


--【贰】--:

原来如此,一直都很奇怪cc怎么执行相同的简单任务要比cursor多上2倍的时间


--【叁】--:

佬这是用的cc-switch吗


--【肆】--:

你的理解完全正确,我也理解了你的困惑。
所以我推荐你试试我推荐的这个渠道管理项目。

可以一个 apikey 同时支持 3 种端点,同时支持各家模型。

这个项目完全支持你说的情况,不然我也不会出这个经验分享贴子了。


--【伍】--:

bestruirui/octopus


--【陆】--:

感谢大佬 !


--【柒】--:

注意:

虽然官方说该环境变量后续会被弃用,但目前暂时还没有,依然有效.

请继续使用 ANTHROPIC_SMALL_FAST_MODEL 来细颗粒度的控制后台模型.

不要把 ANTHROPIC_DEFAULT_HAIKU_MODEL 改成instruct模型,否则的话你在对话里主动切换为HAIKU模型使用就会被替换成instruct模型.


--【捌】--:

是怎么看到后台执行的时间的呢,我的也执行很慢,不知道是不是同一个原因


--【玖】--:

问题就在于 大多数人都搞不定这事儿 这得要求 relay station 支持该分组(Claude 所在分组)里的其他模型才行 自己的 relay station 也是一个道理

如果模型来自不同供应商(也就是 API URL 不一样) 就没法在配置里用同一个 API key 去指定额外的模型了


--【拾】--:

可能是我没表达清楚 重点不在于模型重定向 我可以在配置里把任何模型都设成 fast 但问题是 带着这个 Key 发出的请求 必须进入到一个(不管是自己的还是别人的 relay station)同时真正支持 Kimi 和 Anthropic 系列模型的组里

我现在没法在只用一个统一 API Key 的情况下 把 Kimi 的请求发给一家供应商 而把 Anthropic 的请求发给另一家 不管是 cch 还是 crs 目前都做不到这点

可能我漏掉了什么 或者是我理解有误


--【拾壹】--: 墨菲:

ANTHROPIC_SMALL_FAST_MODEL

注意:ANTHROPIC_SMALL_FAST_MODEL 已弃用,改为使用 ANTHROPIC_DEFAULT_HAIKU_MODEL

Claude Code Docs

模型配置 - Claude Code Docs

了解 Claude Code 模型配置,包括模型别名如 opusplan

本来就是haiku吧


--【拾贰】--:

这类后台任务默认的确就是 HAIKU,但你可以用 FAST_SMALL 将它换掉.
不会影响主线程会话里正常使用 HAIKU 模型.

image1920×1947 314 KB


--【拾叁】--:

佬的这个问题可以自己路由模型请求.

例如我使用的 bestruirui/octopus 这个项目.
你可以接入多家provider 的不同模型.
然后自己公开自定义模型,将这些模型路由到不同provider的不同模型.还支持故障转移和熔断.使用体验非常好.

当然不止是这一款产品,很多中转反代项目都支持这种自定义模型路由的设定.


--【拾肆】--: gadfly3173:

注意:ANTHROPIC_SMALL_FAST_MODEL 已弃用,改为使用 ANTHROPIC_DEFAULT_HAIKU_MODEL

学习了,怪不得有时候执行命令好慢


--【拾伍】--:

感谢大佬