Kimi 699 的套餐用完了,说一下感受吧

2026-04-29 10:292阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

image1663×497 41.6 KB

登陆图镇楼

整体感受

快,轻/中任务适合,文笔不错(无对比,自我感觉)

首先 Kimi K2.5 给我的第一印象就是:太快了

从 lobehub 看 TPS 可以达到百几 token/s

(表头:模型 类型 输入Token 输出 Token TPS TTFT 花费 时间)

可以看到长上下文的情况下 TTFT 比较慢,不过可能是因为 lobehub 在大陆 newapi 在 hk 而 kimi 又在大陆导致的请求慢了,中间全是 https

相比 GLM 那坨史不知道好多少,一个月前从别人那借了一个 lite 套餐玩,TTFT 目测下来绝对没低于 10s 过,不知道是不是我 OpenCode 的问题

轻/中任务适合

我个人认为 CURD[1] 项目任务已经被刷烂了,是个模型都能干

拿 Claude 糊太浪费了,Kimi K2.5 速度很快,糊起来很顺手

(此处应有代码或者截图,但是因为服务器到期没续丢失了 )

续费失败图

image711×531 32.4 KB

个人认为写 C++ 或者 Rust 之类的偏 Native 的语言算是难度比较高的了

最近给 hifisampler-rs 项目写的 PR 就是用 Kimi K2.5 写的,之前用 Claude Opus 4.6 搞了半天都在原地转圈,用 Kimi K2.5 一下子给我改出点名堂来了,反馈说听着顺耳了点,虽然问题仍旧,但是比转圈好多了
image480×1440 163 KB

跑了一下重构 声码器,从 Python+PyTorch 重构到 CUDA,结果是完全流口水

一直循环: 改 -> 编译 -> 一堆报错 -> 改 -> 爆上下文 -> 转回去

百烧了不知道多少 token,我还在上课没法停下

(此处应有代码或者截图,但是因为服务器到期没续丢失了 )

续费失败图

image711×531 32.4 KB

文笔不错

到期前几天我终于做出了想干很久的事情:AI小说浪费token

于是: 此为 Session

Tips:
image338×218 5.9 KB
左侧换消息,设计一坨屎

txt_files.zip (1.4 MB)

作为收场礼物送给各位吧


不知道有没有人发现我以登陆成功为开始,到期为结尾的小巧思

最后

统计数据

image222×103 4.06 KB


  1. 在计算机编程中, 创建、读取、更新和删除CRUD )是持久存储的四个基本操作(动作)。 [1] CRUD 有时也用于描述用户界面约定,这些约定有助于使用基于计算机的表单和报表来查看、搜索和更改信息。 ↩︎

网友解答:
--【壹】--:

我不使用 openclaw,看我的说明可能不是好的选择,看看别的佬吧


--【贰】--:

龙虾用怎么样?迷你Max还有Kimi的套餐,现在正在犹豫。


--【叁】--:

这方面我不专业,我给了样例可以自己看,我主要用来开发


--【肆】--:

听他们公司员工说,关了售卖了,内部正在讨论这个套餐后续怎么修改合适,他们想加上一些限制


--【伍】--:

moderato 量少又很盘
allegretto 又太贵
没法两全其美


--【陆】--:

kimi可以用firework的7刀一周 不限量


--【柒】--:

这么量大管饱且快速的话,是不是很适合做自动化但是不需要思考的东西。比如信息搜索,以及一些简单调度之类的?


--【捌】--:

貌似没货了,不知道什么时候放货。。。。。


--【玖】--:

这种分段计价多人用最高级的套餐确实比较省
他们设计这样估计就是要让一个人用不完
虽然 kimi k2.5 应该有量化过,不然不会这么快


--【拾】--:

Allegro其实性价比挺低的。。不如2人拼199,也更安全


--【拾壹】--:

只看楼主说明的话,我觉得是最合适的场景之一。
我也考虑来着,但是感觉用不上api之外的那些权益


--【拾贰】--:

那个是k2p5-turbo,和最新的模型比还是有差距。。而且算下来4周28刀也200多了不如直接199


--【拾叁】--:

看了一下,你还真别说,这文风挺温馨的,感觉像小时候读的小说


--【拾肆】--:

我是蹭的,金币不是我考虑的问题(((((


--【拾伍】--:

我个人认为最好的方案应该是10个人拼车 Allegro,我实测下来这个套餐根本用不完,我+至少4个亲戚在一起使劲蹬(我开发,他们openclaw)都没见频限条到过50%


--【拾陆】--:

你和我想的一样,我在学校一直想做个 Deep Research Agent,这个模型真的很合适,但是没来得及实现想法就过期了


--【拾柒】--:

我第一次用 Kimi 写剧本的时候,也被震撼到了,完胜当时的 claude 4


--【拾捌】--:

我是搞文案工作的,也不是写小说。就文学方面,你觉得怎么样?就比如说对知识的分析啊。语气的感知呀之类的一段。


--【拾玖】--:

上周还买了个,还能免费试用一周,好久没怎么大方的了

标签:人工智能
问题描述:

image1663×497 41.6 KB

登陆图镇楼

整体感受

快,轻/中任务适合,文笔不错(无对比,自我感觉)

首先 Kimi K2.5 给我的第一印象就是:太快了

从 lobehub 看 TPS 可以达到百几 token/s

(表头:模型 类型 输入Token 输出 Token TPS TTFT 花费 时间)

可以看到长上下文的情况下 TTFT 比较慢,不过可能是因为 lobehub 在大陆 newapi 在 hk 而 kimi 又在大陆导致的请求慢了,中间全是 https

相比 GLM 那坨史不知道好多少,一个月前从别人那借了一个 lite 套餐玩,TTFT 目测下来绝对没低于 10s 过,不知道是不是我 OpenCode 的问题

轻/中任务适合

我个人认为 CURD[1] 项目任务已经被刷烂了,是个模型都能干

拿 Claude 糊太浪费了,Kimi K2.5 速度很快,糊起来很顺手

(此处应有代码或者截图,但是因为服务器到期没续丢失了 )

续费失败图

image711×531 32.4 KB

个人认为写 C++ 或者 Rust 之类的偏 Native 的语言算是难度比较高的了

最近给 hifisampler-rs 项目写的 PR 就是用 Kimi K2.5 写的,之前用 Claude Opus 4.6 搞了半天都在原地转圈,用 Kimi K2.5 一下子给我改出点名堂来了,反馈说听着顺耳了点,虽然问题仍旧,但是比转圈好多了
image480×1440 163 KB

跑了一下重构 声码器,从 Python+PyTorch 重构到 CUDA,结果是完全流口水

一直循环: 改 -> 编译 -> 一堆报错 -> 改 -> 爆上下文 -> 转回去

百烧了不知道多少 token,我还在上课没法停下

(此处应有代码或者截图,但是因为服务器到期没续丢失了 )

续费失败图

image711×531 32.4 KB

文笔不错

到期前几天我终于做出了想干很久的事情:AI小说浪费token

于是: 此为 Session

Tips:
image338×218 5.9 KB
左侧换消息,设计一坨屎

txt_files.zip (1.4 MB)

作为收场礼物送给各位吧


不知道有没有人发现我以登陆成功为开始,到期为结尾的小巧思

最后

统计数据

image222×103 4.06 KB


  1. 在计算机编程中, 创建、读取、更新和删除CRUD )是持久存储的四个基本操作(动作)。 [1] CRUD 有时也用于描述用户界面约定,这些约定有助于使用基于计算机的表单和报表来查看、搜索和更改信息。 ↩︎

网友解答:
--【壹】--:

我不使用 openclaw,看我的说明可能不是好的选择,看看别的佬吧


--【贰】--:

龙虾用怎么样?迷你Max还有Kimi的套餐,现在正在犹豫。


--【叁】--:

这方面我不专业,我给了样例可以自己看,我主要用来开发


--【肆】--:

听他们公司员工说,关了售卖了,内部正在讨论这个套餐后续怎么修改合适,他们想加上一些限制


--【伍】--:

moderato 量少又很盘
allegretto 又太贵
没法两全其美


--【陆】--:

kimi可以用firework的7刀一周 不限量


--【柒】--:

这么量大管饱且快速的话,是不是很适合做自动化但是不需要思考的东西。比如信息搜索,以及一些简单调度之类的?


--【捌】--:

貌似没货了,不知道什么时候放货。。。。。


--【玖】--:

这种分段计价多人用最高级的套餐确实比较省
他们设计这样估计就是要让一个人用不完
虽然 kimi k2.5 应该有量化过,不然不会这么快


--【拾】--:

Allegro其实性价比挺低的。。不如2人拼199,也更安全


--【拾壹】--:

只看楼主说明的话,我觉得是最合适的场景之一。
我也考虑来着,但是感觉用不上api之外的那些权益


--【拾贰】--:

那个是k2p5-turbo,和最新的模型比还是有差距。。而且算下来4周28刀也200多了不如直接199


--【拾叁】--:

看了一下,你还真别说,这文风挺温馨的,感觉像小时候读的小说


--【拾肆】--:

我是蹭的,金币不是我考虑的问题(((((


--【拾伍】--:

我个人认为最好的方案应该是10个人拼车 Allegro,我实测下来这个套餐根本用不完,我+至少4个亲戚在一起使劲蹬(我开发,他们openclaw)都没见频限条到过50%


--【拾陆】--:

你和我想的一样,我在学校一直想做个 Deep Research Agent,这个模型真的很合适,但是没来得及实现想法就过期了


--【拾柒】--:

我第一次用 Kimi 写剧本的时候,也被震撼到了,完胜当时的 claude 4


--【拾捌】--:

我是搞文案工作的,也不是写小说。就文学方面,你觉得怎么样?就比如说对知识的分析啊。语气的感知呀之类的一段。


--【拾玖】--:

上周还买了个,还能免费试用一周,好久没怎么大方的了

标签:人工智能