qwen3.6小模型做高数题还是太吃力了
- 内容介绍
- 文章标签
- 相关推荐
最近Qwen3.6的模型发布之后,又满心希望的测试了一次大学水平的数学题。
是否存在一个6个节点的树,可以将其每条边赋予一个正整数权重作为长度,使得任意两点间的距离(即路径上所有边的长度之和)互不重复且恰好组成集合{1, 2, 3…15}?
历经30分钟思考还是给出了错误的答案。属于是扎心了,开源模型的数学能力还是远不如闭源啊。后续再测测其他的
2026-04-23111308772×1340 84.2 KB
--【壹】--:
这个思路好,写python脚本的能力大于他自己思考
--【贰】--:
小模型这样很正常吧,这种问题一般得上大模型才够啊
--【叁】--:
佬这个思路真的可以!一下子思路打开了。我待会儿试试看,这个应该是可行的,要是类似的问题能解决就太好了,毕竟不限制实现思路。
--【肆】--:
现在的模型估计重心都在agent能力这块吧,我觉得在当前时间点再测模型的纯智力已经没有那么大意义了,因为现在所有的LLM工作环境或多或少都有很多现成的工具可以帮助其更好地解决这类问题。
比如我拿你的问题最后加上一句“合理使用手头的工具解答”,在qwen code里Qwen3.6-35B-A3B是可以在编写执行脚本后得出答案的,不加上这句话他就会自己推理死磕得到错误答案。
image770×612 43.8 KB
--【伍】--:
我部署27B在cc上使用,非常慢,37B-A3B都是可以一用。
--【陆】--:
学到了
image1848×1514 263 KB
确实可以
--【柒】--:
35B-A3B 是稀疏的MOE模型的激活参数只有3B,数学推理能力有限,只是速度快,还是27B的致密模型相对智能。而且Qwen 3.6 相对于 Qwen 3.5 在代码方面强化,其它方面很可能还退步了。
--【捌】--:
小模型只适合一些简单的工作,不适合思考,比如提取提取关键词还是可以的
--【玖】--:
请问4090 24G能畅玩这个小模型吗?
--【拾】--:
开源模型的数学能力远不如闭源,这个结论不对吧,毕竟用的是Qwen系列中的小尺寸。一般对比都是小尺寸与小尺寸对比吧。或者重型模型与重型模型对比。
--【拾壹】--:
能,其激活参数只有3B,对显存的要求不高。
--【拾贰】--:
这种尺寸的模型,就不要指望了吧,只能说小尺寸开源模型的智商还是不够
最近Qwen3.6的模型发布之后,又满心希望的测试了一次大学水平的数学题。
是否存在一个6个节点的树,可以将其每条边赋予一个正整数权重作为长度,使得任意两点间的距离(即路径上所有边的长度之和)互不重复且恰好组成集合{1, 2, 3…15}?
历经30分钟思考还是给出了错误的答案。属于是扎心了,开源模型的数学能力还是远不如闭源啊。后续再测测其他的
2026-04-23111308772×1340 84.2 KB
--【壹】--:
这个思路好,写python脚本的能力大于他自己思考
--【贰】--:
小模型这样很正常吧,这种问题一般得上大模型才够啊
--【叁】--:
佬这个思路真的可以!一下子思路打开了。我待会儿试试看,这个应该是可行的,要是类似的问题能解决就太好了,毕竟不限制实现思路。
--【肆】--:
现在的模型估计重心都在agent能力这块吧,我觉得在当前时间点再测模型的纯智力已经没有那么大意义了,因为现在所有的LLM工作环境或多或少都有很多现成的工具可以帮助其更好地解决这类问题。
比如我拿你的问题最后加上一句“合理使用手头的工具解答”,在qwen code里Qwen3.6-35B-A3B是可以在编写执行脚本后得出答案的,不加上这句话他就会自己推理死磕得到错误答案。
image770×612 43.8 KB
--【伍】--:
我部署27B在cc上使用,非常慢,37B-A3B都是可以一用。
--【陆】--:
学到了
image1848×1514 263 KB
确实可以
--【柒】--:
35B-A3B 是稀疏的MOE模型的激活参数只有3B,数学推理能力有限,只是速度快,还是27B的致密模型相对智能。而且Qwen 3.6 相对于 Qwen 3.5 在代码方面强化,其它方面很可能还退步了。
--【捌】--:
小模型只适合一些简单的工作,不适合思考,比如提取提取关键词还是可以的
--【玖】--:
请问4090 24G能畅玩这个小模型吗?
--【拾】--:
开源模型的数学能力远不如闭源,这个结论不对吧,毕竟用的是Qwen系列中的小尺寸。一般对比都是小尺寸与小尺寸对比吧。或者重型模型与重型模型对比。
--【拾壹】--:
能,其激活参数只有3B,对显存的要求不高。
--【拾贰】--:
这种尺寸的模型,就不要指望了吧,只能说小尺寸开源模型的智商还是不够

