到底怎么才能降低Qwen3.6-35B-A3B的think啊

2026-04-29 10:342阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.6-35B-A3B的vllm模型。
官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊..
system角色写提示词要求它精简思考过程也不行。。。。

没招了..

网友解答:
--【壹】--:

大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.6-35B-A3B的vllm模型。
官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊..
system角色写提示词要求它精简思考过程也不行。。。。

没招了..

标签:人工智能
问题描述:

大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.6-35B-A3B的vllm模型。
官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊..
system角色写提示词要求它精简思考过程也不行。。。。

没招了..

网友解答:
--【壹】--:

大佬们 最近用最新的gpustack2.1.2版本 搭配8个L40装了Qwen3.6-35B-A3B的vllm模型。
官方文档说可以靠thinking_budget参数来调节思考的长度,但是根本不好使啊..
system角色写提示词要求它精简思考过程也不行。。。。

没招了..

标签:人工智能