感觉deepseek api反应好快。。。
- 内容介绍
- 文章标签
- 相关推荐
今天看佬友们说deepseek更新了api端口,想着已经接近1年没用过deepseek了,试试看agent能力有没有加强,充了一点钱,ccs里配置如下:
image872×302 34.6 KB
体验了一下,完全一改之前卡卡的印象,感觉反应有点太快了点。。。感觉比gpt还快,近期在cc里用sonnet中转、glm官方5.1(这个慢死了。。。)、5.4(codex账号),最快的就是5.4了,没想到今天试了一下deep反应比5.4还快(不知道是不是因为这个点用的人少,不过下午也用了下,也蛮快,但是晚上这个有点太快了 ),质量的话中规中举,不过用来干简单的任务绝对够了)
越来越期待v4了
网友解答:--【壹】--:
这么看来还挺快的啊!可以的可以的啊。应该挺好用
--【贰】--:
别说开发
rp都不太行
你不能指望一个和minimax差不多规模的小模型开发
--【叁】--:
现在已经是 v4lite 了吗,在 cc 里爽蹬了
--【肆】--:
拿来写代码的话和glm相比如何,国产模型能有个顺畅写代码给力的就好了
--【伍】--:
就怕是快是因为现在没人蹬。。。蹬v4发布,再豪华的服务器集群也是包卡的
--【陆】--:
这要是国产卡能跑到这个速度,也是很大进步了,之前以为用华为的卡可能会比较慢
--【柒】--:
今晚这个大抵就是v4l了,体感有60-70/s ,但感觉和web当时的感觉又不太一样,又不太敢确定
--【捌】--:
确实相比gpt claude这些模型,国内的真的很快,但是之前用的小米的很快但没什么用
--【玖】--:
据说是上的V4Lite,速度确实快,80tokens/s。
今天看佬友们说deepseek更新了api端口,想着已经接近1年没用过deepseek了,试试看agent能力有没有加强,充了一点钱,ccs里配置如下:
image872×302 34.6 KB
体验了一下,完全一改之前卡卡的印象,感觉反应有点太快了点。。。感觉比gpt还快,近期在cc里用sonnet中转、glm官方5.1(这个慢死了。。。)、5.4(codex账号),最快的就是5.4了,没想到今天试了一下deep反应比5.4还快(不知道是不是因为这个点用的人少,不过下午也用了下,也蛮快,但是晚上这个有点太快了 ),质量的话中规中举,不过用来干简单的任务绝对够了)
越来越期待v4了
网友解答:--【壹】--:
这么看来还挺快的啊!可以的可以的啊。应该挺好用
--【贰】--:
别说开发
rp都不太行
你不能指望一个和minimax差不多规模的小模型开发
--【叁】--:
现在已经是 v4lite 了吗,在 cc 里爽蹬了
--【肆】--:
拿来写代码的话和glm相比如何,国产模型能有个顺畅写代码给力的就好了
--【伍】--:
就怕是快是因为现在没人蹬。。。蹬v4发布,再豪华的服务器集群也是包卡的
--【陆】--:
这要是国产卡能跑到这个速度,也是很大进步了,之前以为用华为的卡可能会比较慢
--【柒】--:
今晚这个大抵就是v4l了,体感有60-70/s ,但感觉和web当时的感觉又不太一样,又不太敢确定
--【捌】--:
确实相比gpt claude这些模型,国内的真的很快,但是之前用的小米的很快但没什么用
--【玖】--:
据说是上的V4Lite,速度确实快,80tokens/s。

