Kimi 2.6是不是有点想的太多了

2026-04-29 10:592阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

我看他的思考过程有时候有用,大部分只需要执行的时候都容易跑偏,这点连gpt 5.2都比不上,以前5.2虽然想很多,但是基本不会出错,kimi 2.6是想了,但是想出了一坨屎

我用的ollama的plan,不知道官网的是不是也是这个水平

网友解答:
--【壹】--:

其实我用下来glm5.1也有这个问题,思维链确实很长,也会反复检查问题。但有些问题可能用一些比较粗暴的办法很快就能找到问题或者解决。它要按真实逻辑一步步检查反而陷入了漫长的shit中。 为了思考而思考


--【贰】--:

kimi2.6好用吗, 我还没有试过呢 ???


--【叁】--:

我买了199那个套餐,反正写Rust不太行。。


--【肆】--:

最早知道kimi是因为在媒体看到了上下文能力很强,很久之前还开过kimi的会员。甚至还使用总结过日报。
后面在openrouter上看到minimax用量特别大去了解了下minimax,发现它很快就推出了openclaw的部署,但是没宣传。
过了一天后kimi有了claw开始铺天盖地的宣传,再后来是2.5吧说coding能力特别强,当时还纠结过glm5.1还是kimi2.5。后面发现大家用脚投票非常诚实。
这次2.6我选择观望一波。


--【伍】--:

deepseek 就不知道啥情况了, 正常来说要一直迭代才行,但是这么久没迭代,这么久憋不出一个蛋,要么拉一坨大的要么惊为天人,我感觉脱离用户层那么久很难出好的


--【陆】--:

难道是互相蒸馏的原因?都是开源模型,互相蒸馏会导致这个结果吗


--【柒】--:

kimi2.5磨剑也磨了很久才到2.6,结果拉了坨大的,我开始怕v4磨这么久也是这样就麻烦了


--【捌】--:

感觉kimi处理文档类还好用,coding没有glm强。kimi想的确实多,之前布置在龙虾上,遇到好几次一直思考不回复。


--【玖】--:

我宣传挺厉害的啊,但是看各位佬反馈好像又。。。


--【拾】--:

现在国内kimi应该不用抢吧,其他很多都需要抢,我抢了几天glm都放弃了,然后入了ollama

主要前面有人说,DeepSeek v4也是开源的,ollama应该也能第一时间用上


--【拾壹】--:

之前使用 GLM-5.1 就有这个感觉,思考时间很长。这次的 Kimi-K2.6 也是,今天问了一个代码问题,可能说的比较笼统,它思考了 8 分钟…感觉自己都迷糊了


--【拾贰】--:

今天较深度的用了一下kimi2.5,比预期的好一点,但是和kiro和codex差距还是不小,和claude code就更不能比了。中等问题能解决,大的需求和复杂问题就不太行了,而且回答的感觉也比较抽象,逻辑不够清晰和简洁,回答的还是有点看不太明白


--【拾叁】--:

是不是 kimi2.6 还是不太好用啊?我这两天有点焦虑订阅哪家的 plan。。。


--【拾肆】--:

我也有这个感受,我看它思考链里明明已经得到正确结果了,但是还在反复检查
有点类似于千问小模型思考链中经常反复输出"wait, but let me…"


--【拾伍】--:

我觉得kimi2.5用来做前端非常不错,大概率蒸馏过前三的模型。


--【拾陆】--:

kimi感觉不温不火,说明一个很大的原因是模型能力不行,我建议还是主流的模型好点


--【拾柒】--:

我也发现,有时间想多确实好用,但是跑长一点的项目,想的多也跑偏的多,我就说我昨晚跑着怎么后面不太对劲呢,一开始让他弄html问了我一大堆,后面才反应过来了


--【拾捌】--:

我在Hermes里面用,一个问题过去它直接思考+执行+思考+执行…
一点用户插手的余地都没有,跑偏一点就得直接全部undo
不过我感觉做出来的前端效果是比Codex里的GPT-5.4好的,5.4的前端页面有点丑了


--【拾玖】--:

97f368a01787811962057ec59fd705a51020×743 38.3 KB

网上说说得了,现实中谁不想订阅199的Kimi急头白脸用一顿呢(

正经的来说,我的体验下来从thinking模式上面:

  1. Claude Opus 4.6 ≈ GPT 5.4
  2. Claude Opus 4.7 ≈ 降智4.6(低概率会出现自我反驳,4.7有时也会陷入思考循环)
  3. GLM5.1 ≈ DeepSeek(目前国模中体验最好的,比较干净)
  4. Kimi 2.6 ≈ Qwen3.6 (大量自我反驳、矛盾、思考死循环、等等、不对、让我再想想、换个思路、自己绕圈子型)

Gemini用的少不评价了,thinking一块一块的比较干净,应该也是第一梯队
Grok没搞清楚思维方式,似乎有时候胡乱思考,也不评价

问题描述:

我看他的思考过程有时候有用,大部分只需要执行的时候都容易跑偏,这点连gpt 5.2都比不上,以前5.2虽然想很多,但是基本不会出错,kimi 2.6是想了,但是想出了一坨屎

我用的ollama的plan,不知道官网的是不是也是这个水平

网友解答:
--【壹】--:

其实我用下来glm5.1也有这个问题,思维链确实很长,也会反复检查问题。但有些问题可能用一些比较粗暴的办法很快就能找到问题或者解决。它要按真实逻辑一步步检查反而陷入了漫长的shit中。 为了思考而思考


--【贰】--:

kimi2.6好用吗, 我还没有试过呢 ???


--【叁】--:

我买了199那个套餐,反正写Rust不太行。。


--【肆】--:

最早知道kimi是因为在媒体看到了上下文能力很强,很久之前还开过kimi的会员。甚至还使用总结过日报。
后面在openrouter上看到minimax用量特别大去了解了下minimax,发现它很快就推出了openclaw的部署,但是没宣传。
过了一天后kimi有了claw开始铺天盖地的宣传,再后来是2.5吧说coding能力特别强,当时还纠结过glm5.1还是kimi2.5。后面发现大家用脚投票非常诚实。
这次2.6我选择观望一波。


--【伍】--:

deepseek 就不知道啥情况了, 正常来说要一直迭代才行,但是这么久没迭代,这么久憋不出一个蛋,要么拉一坨大的要么惊为天人,我感觉脱离用户层那么久很难出好的


--【陆】--:

难道是互相蒸馏的原因?都是开源模型,互相蒸馏会导致这个结果吗


--【柒】--:

kimi2.5磨剑也磨了很久才到2.6,结果拉了坨大的,我开始怕v4磨这么久也是这样就麻烦了


--【捌】--:

感觉kimi处理文档类还好用,coding没有glm强。kimi想的确实多,之前布置在龙虾上,遇到好几次一直思考不回复。


--【玖】--:

我宣传挺厉害的啊,但是看各位佬反馈好像又。。。


--【拾】--:

现在国内kimi应该不用抢吧,其他很多都需要抢,我抢了几天glm都放弃了,然后入了ollama

主要前面有人说,DeepSeek v4也是开源的,ollama应该也能第一时间用上


--【拾壹】--:

之前使用 GLM-5.1 就有这个感觉,思考时间很长。这次的 Kimi-K2.6 也是,今天问了一个代码问题,可能说的比较笼统,它思考了 8 分钟…感觉自己都迷糊了


--【拾贰】--:

今天较深度的用了一下kimi2.5,比预期的好一点,但是和kiro和codex差距还是不小,和claude code就更不能比了。中等问题能解决,大的需求和复杂问题就不太行了,而且回答的感觉也比较抽象,逻辑不够清晰和简洁,回答的还是有点看不太明白


--【拾叁】--:

是不是 kimi2.6 还是不太好用啊?我这两天有点焦虑订阅哪家的 plan。。。


--【拾肆】--:

我也有这个感受,我看它思考链里明明已经得到正确结果了,但是还在反复检查
有点类似于千问小模型思考链中经常反复输出"wait, but let me…"


--【拾伍】--:

我觉得kimi2.5用来做前端非常不错,大概率蒸馏过前三的模型。


--【拾陆】--:

kimi感觉不温不火,说明一个很大的原因是模型能力不行,我建议还是主流的模型好点


--【拾柒】--:

我也发现,有时间想多确实好用,但是跑长一点的项目,想的多也跑偏的多,我就说我昨晚跑着怎么后面不太对劲呢,一开始让他弄html问了我一大堆,后面才反应过来了


--【拾捌】--:

我在Hermes里面用,一个问题过去它直接思考+执行+思考+执行…
一点用户插手的余地都没有,跑偏一点就得直接全部undo
不过我感觉做出来的前端效果是比Codex里的GPT-5.4好的,5.4的前端页面有点丑了


--【拾玖】--:

97f368a01787811962057ec59fd705a51020×743 38.3 KB

网上说说得了,现实中谁不想订阅199的Kimi急头白脸用一顿呢(

正经的来说,我的体验下来从thinking模式上面:

  1. Claude Opus 4.6 ≈ GPT 5.4
  2. Claude Opus 4.7 ≈ 降智4.6(低概率会出现自我反驳,4.7有时也会陷入思考循环)
  3. GLM5.1 ≈ DeepSeek(目前国模中体验最好的,比较干净)
  4. Kimi 2.6 ≈ Qwen3.6 (大量自我反驳、矛盾、思考死循环、等等、不对、让我再想想、换个思路、自己绕圈子型)

Gemini用的少不评价了,thinking一块一块的比较干净,应该也是第一梯队
Grok没搞清楚思维方式,似乎有时候胡乱思考,也不评价