Kimi 2.6是不是有点想的太多了
- 内容介绍
- 文章标签
- 相关推荐
我看他的思考过程有时候有用,大部分只需要执行的时候都容易跑偏,这点连gpt 5.2都比不上,以前5.2虽然想很多,但是基本不会出错,kimi 2.6是想了,但是想出了一坨屎
我用的ollama的plan,不知道官网的是不是也是这个水平
网友解答:--【壹】--:
其实我用下来glm5.1也有这个问题,思维链确实很长,也会反复检查问题。但有些问题可能用一些比较粗暴的办法很快就能找到问题或者解决。它要按真实逻辑一步步检查反而陷入了漫长的shit中。 为了思考而思考
--【贰】--:
kimi2.6好用吗, 我还没有试过呢 ???
--【叁】--:
我买了199那个套餐,反正写Rust不太行。。
--【肆】--:
最早知道kimi是因为在媒体看到了上下文能力很强,很久之前还开过kimi的会员。甚至还使用总结过日报。
后面在openrouter上看到minimax用量特别大去了解了下minimax,发现它很快就推出了openclaw的部署,但是没宣传。
过了一天后kimi有了claw开始铺天盖地的宣传,再后来是2.5吧说coding能力特别强,当时还纠结过glm5.1还是kimi2.5。后面发现大家用脚投票非常诚实。
这次2.6我选择观望一波。
--【伍】--:
deepseek 就不知道啥情况了, 正常来说要一直迭代才行,但是这么久没迭代,这么久憋不出一个蛋,要么拉一坨大的要么惊为天人,我感觉脱离用户层那么久很难出好的
--【陆】--:
难道是互相蒸馏的原因?都是开源模型,互相蒸馏会导致这个结果吗
--【柒】--:
kimi2.5磨剑也磨了很久才到2.6,结果拉了坨大的,我开始怕v4磨这么久也是这样就麻烦了
--【捌】--:
感觉kimi处理文档类还好用,coding没有glm强。kimi想的确实多,之前布置在龙虾上,遇到好几次一直思考不回复。
--【玖】--:
我宣传挺厉害的啊,但是看各位佬反馈好像又。。。
--【拾】--:
现在国内kimi应该不用抢吧,其他很多都需要抢,我抢了几天glm都放弃了,然后入了ollama
主要前面有人说,DeepSeek v4也是开源的,ollama应该也能第一时间用上
--【拾壹】--:
之前使用 GLM-5.1 就有这个感觉,思考时间很长。这次的 Kimi-K2.6 也是,今天问了一个代码问题,可能说的比较笼统,它思考了 8 分钟…感觉自己都迷糊了
--【拾贰】--:
今天较深度的用了一下kimi2.5,比预期的好一点,但是和kiro和codex差距还是不小,和claude code就更不能比了。中等问题能解决,大的需求和复杂问题就不太行了,而且回答的感觉也比较抽象,逻辑不够清晰和简洁,回答的还是有点看不太明白
--【拾叁】--:
是不是 kimi2.6 还是不太好用啊?我这两天有点焦虑订阅哪家的 plan。。。
--【拾肆】--:
我也有这个感受,我看它思考链里明明已经得到正确结果了,但是还在反复检查
有点类似于千问小模型思考链中经常反复输出"wait, but let me…"
--【拾伍】--:
我觉得kimi2.5用来做前端非常不错,大概率蒸馏过前三的模型。
--【拾陆】--:
kimi感觉不温不火,说明一个很大的原因是模型能力不行,我建议还是主流的模型好点
--【拾柒】--:
我也发现,有时间想多确实好用,但是跑长一点的项目,想的多也跑偏的多,我就说我昨晚跑着怎么后面不太对劲呢,一开始让他弄html问了我一大堆,后面才反应过来了
--【拾捌】--:
我在Hermes里面用,一个问题过去它直接思考+执行+思考+执行…
一点用户插手的余地都没有,跑偏一点就得直接全部undo
不过我感觉做出来的前端效果是比Codex里的GPT-5.4好的,5.4的前端页面有点丑了
--【拾玖】--:
97f368a01787811962057ec59fd705a51020×743 38.3 KB
网上说说得了,现实中谁不想订阅199的Kimi急头白脸用一顿呢(
正经的来说,我的体验下来从thinking模式上面:
- Claude Opus 4.6 ≈ GPT 5.4
- Claude Opus 4.7 ≈ 降智4.6(低概率会出现自我反驳,4.7有时也会陷入思考循环)
- GLM5.1 ≈ DeepSeek(目前国模中体验最好的,比较干净)
- Kimi 2.6 ≈ Qwen3.6 (大量自我反驳、矛盾、思考死循环、等等、不对、让我再想想、换个思路、自己绕圈子型)
Gemini用的少不评价了,thinking一块一块的比较干净,应该也是第一梯队
Grok没搞清楚思维方式,似乎有时候胡乱思考,也不评价
我看他的思考过程有时候有用,大部分只需要执行的时候都容易跑偏,这点连gpt 5.2都比不上,以前5.2虽然想很多,但是基本不会出错,kimi 2.6是想了,但是想出了一坨屎
我用的ollama的plan,不知道官网的是不是也是这个水平
网友解答:--【壹】--:
其实我用下来glm5.1也有这个问题,思维链确实很长,也会反复检查问题。但有些问题可能用一些比较粗暴的办法很快就能找到问题或者解决。它要按真实逻辑一步步检查反而陷入了漫长的shit中。 为了思考而思考
--【贰】--:
kimi2.6好用吗, 我还没有试过呢 ???
--【叁】--:
我买了199那个套餐,反正写Rust不太行。。
--【肆】--:
最早知道kimi是因为在媒体看到了上下文能力很强,很久之前还开过kimi的会员。甚至还使用总结过日报。
后面在openrouter上看到minimax用量特别大去了解了下minimax,发现它很快就推出了openclaw的部署,但是没宣传。
过了一天后kimi有了claw开始铺天盖地的宣传,再后来是2.5吧说coding能力特别强,当时还纠结过glm5.1还是kimi2.5。后面发现大家用脚投票非常诚实。
这次2.6我选择观望一波。
--【伍】--:
deepseek 就不知道啥情况了, 正常来说要一直迭代才行,但是这么久没迭代,这么久憋不出一个蛋,要么拉一坨大的要么惊为天人,我感觉脱离用户层那么久很难出好的
--【陆】--:
难道是互相蒸馏的原因?都是开源模型,互相蒸馏会导致这个结果吗
--【柒】--:
kimi2.5磨剑也磨了很久才到2.6,结果拉了坨大的,我开始怕v4磨这么久也是这样就麻烦了
--【捌】--:
感觉kimi处理文档类还好用,coding没有glm强。kimi想的确实多,之前布置在龙虾上,遇到好几次一直思考不回复。
--【玖】--:
我宣传挺厉害的啊,但是看各位佬反馈好像又。。。
--【拾】--:
现在国内kimi应该不用抢吧,其他很多都需要抢,我抢了几天glm都放弃了,然后入了ollama
主要前面有人说,DeepSeek v4也是开源的,ollama应该也能第一时间用上
--【拾壹】--:
之前使用 GLM-5.1 就有这个感觉,思考时间很长。这次的 Kimi-K2.6 也是,今天问了一个代码问题,可能说的比较笼统,它思考了 8 分钟…感觉自己都迷糊了
--【拾贰】--:
今天较深度的用了一下kimi2.5,比预期的好一点,但是和kiro和codex差距还是不小,和claude code就更不能比了。中等问题能解决,大的需求和复杂问题就不太行了,而且回答的感觉也比较抽象,逻辑不够清晰和简洁,回答的还是有点看不太明白
--【拾叁】--:
是不是 kimi2.6 还是不太好用啊?我这两天有点焦虑订阅哪家的 plan。。。
--【拾肆】--:
我也有这个感受,我看它思考链里明明已经得到正确结果了,但是还在反复检查
有点类似于千问小模型思考链中经常反复输出"wait, but let me…"
--【拾伍】--:
我觉得kimi2.5用来做前端非常不错,大概率蒸馏过前三的模型。
--【拾陆】--:
kimi感觉不温不火,说明一个很大的原因是模型能力不行,我建议还是主流的模型好点
--【拾柒】--:
我也发现,有时间想多确实好用,但是跑长一点的项目,想的多也跑偏的多,我就说我昨晚跑着怎么后面不太对劲呢,一开始让他弄html问了我一大堆,后面才反应过来了
--【拾捌】--:
我在Hermes里面用,一个问题过去它直接思考+执行+思考+执行…
一点用户插手的余地都没有,跑偏一点就得直接全部undo
不过我感觉做出来的前端效果是比Codex里的GPT-5.4好的,5.4的前端页面有点丑了
--【拾玖】--:
97f368a01787811962057ec59fd705a51020×743 38.3 KB
网上说说得了,现实中谁不想订阅199的Kimi急头白脸用一顿呢(
正经的来说,我的体验下来从thinking模式上面:
- Claude Opus 4.6 ≈ GPT 5.4
- Claude Opus 4.7 ≈ 降智4.6(低概率会出现自我反驳,4.7有时也会陷入思考循环)
- GLM5.1 ≈ DeepSeek(目前国模中体验最好的,比较干净)
- Kimi 2.6 ≈ Qwen3.6 (大量自我反驳、矛盾、思考死循环、等等、不对、让我再想想、换个思路、自己绕圈子型)
Gemini用的少不评价了,thinking一块一块的比较干净,应该也是第一梯队
Grok没搞清楚思维方式,似乎有时候胡乱思考,也不评价

