感觉deepseek api反应好快。。。
- 内容介绍
- 文章标签
- 相关推荐
今天看佬友们说deepseek更新了api端口,想着已经接近1年没用过deepseek了,试试看agent能力有没有加强,充了一点钱,ccs里配置如下:
image872×302 34.6 KB
体验了一下,完全一改之前卡卡的印象,感觉反应有点太快了点。。。感觉比gpt还快,近期在cc里用sonnet中转、glm官方5.1(这个慢死了。。。)、5.4(codex账号),最快的就是5.4了,没想到今天试了一下deep反应比5.4还快(不知道是不是因为这个点用的人少,不过下午也用了下,也蛮快,但是晚上这个有点太快了 ),质量的话中规中举,不过用来干简单的任务绝对够了)
越来越期待v4了
网友解答:--【壹】--:
这么看来还挺快的啊!可以的可以的啊。应该挺好用
--【贰】--:
别说开发
rp都不太行
你不能指望一个和minimax差不多规模的小模型开发
--【叁】--:
现在已经是 v4lite 了吗,在 cc 里爽蹬了
--【肆】--:
拿来写代码的话和glm相比如何,国产模型能有个顺畅写代码给力的就好了
--【伍】--:
就怕是快是因为现在没人蹬。。。蹬v4发布,再豪华的服务器集群也是包卡的
--【陆】--:
这要是国产卡能跑到这个速度,也是很大进步了,之前以为用华为的卡可能会比较慢
--【柒】--:
今晚这个大抵就是v4l了,体感有60-70/s ,但感觉和web当时的感觉又不太一样,又不太敢确定
--【捌】--:
确实相比gpt claude这些模型,国内的真的很快,但是之前用的小米的很快但没什么用
--【玖】--:
据说是上的V4Lite,速度确实快,80tokens/s。放一张API跑的天气卡片,
image1456×687 87.5 KB
感觉和官网的还不太一样。
--【拾】--:
确实,感觉虽然开了max思考但跟没开似的
--【拾壹】--:
快到逆天但是感觉有点呆 小模型的感觉蚌埠
--【拾贰】--:
拿来开发效果怎么样,还行的话我也去试试,上次也提前充了点钱等v4发布的。
--【拾叁】--:
我印象还停留在R1,以为用reasoner速度可能跟这个差不多,质量没惊到我,反而是速度惊到我了
--【拾肆】--:
速度快,资费再便宜点,大家这样都能用起希望能如愿
--【拾伍】--:
拿来当翻译模型太爽了,速度飞快,一下子就都出来了
--【拾陆】--:
我主要不是拿来写代码,我写文档、写材料为主,这方面感觉还是比不过5.1,如果不提前说多写点,默认情况下输出明显短于opus、5.1,文档ai味会比opus4.6(4.7ai味上来了)大一些
--【拾柒】--:
希望 DeepSeek v4 能给世界交出一份满意的答卷!不枉费各位一直等着
--【拾捌】--:
估计是还没有正式启用这些参数?现在的思维链默认挺短的,很多时候我就算要求思考也是不怎么思考就吐字了
--【拾玖】--:
这个版本应该是专门拿来测试的非满血版本,小参数模型,V4满血的参数量应该不至于这么快,不过这个速度是真的爽
今天看佬友们说deepseek更新了api端口,想着已经接近1年没用过deepseek了,试试看agent能力有没有加强,充了一点钱,ccs里配置如下:
image872×302 34.6 KB
体验了一下,完全一改之前卡卡的印象,感觉反应有点太快了点。。。感觉比gpt还快,近期在cc里用sonnet中转、glm官方5.1(这个慢死了。。。)、5.4(codex账号),最快的就是5.4了,没想到今天试了一下deep反应比5.4还快(不知道是不是因为这个点用的人少,不过下午也用了下,也蛮快,但是晚上这个有点太快了 ),质量的话中规中举,不过用来干简单的任务绝对够了)
越来越期待v4了
网友解答:--【壹】--:
这么看来还挺快的啊!可以的可以的啊。应该挺好用
--【贰】--:
别说开发
rp都不太行
你不能指望一个和minimax差不多规模的小模型开发
--【叁】--:
现在已经是 v4lite 了吗,在 cc 里爽蹬了
--【肆】--:
拿来写代码的话和glm相比如何,国产模型能有个顺畅写代码给力的就好了
--【伍】--:
就怕是快是因为现在没人蹬。。。蹬v4发布,再豪华的服务器集群也是包卡的
--【陆】--:
这要是国产卡能跑到这个速度,也是很大进步了,之前以为用华为的卡可能会比较慢
--【柒】--:
今晚这个大抵就是v4l了,体感有60-70/s ,但感觉和web当时的感觉又不太一样,又不太敢确定
--【捌】--:
确实相比gpt claude这些模型,国内的真的很快,但是之前用的小米的很快但没什么用
--【玖】--:
据说是上的V4Lite,速度确实快,80tokens/s。放一张API跑的天气卡片,
image1456×687 87.5 KB
感觉和官网的还不太一样。
--【拾】--:
确实,感觉虽然开了max思考但跟没开似的
--【拾壹】--:
快到逆天但是感觉有点呆 小模型的感觉蚌埠
--【拾贰】--:
拿来开发效果怎么样,还行的话我也去试试,上次也提前充了点钱等v4发布的。
--【拾叁】--:
我印象还停留在R1,以为用reasoner速度可能跟这个差不多,质量没惊到我,反而是速度惊到我了
--【拾肆】--:
速度快,资费再便宜点,大家这样都能用起希望能如愿
--【拾伍】--:
拿来当翻译模型太爽了,速度飞快,一下子就都出来了
--【拾陆】--:
我主要不是拿来写代码,我写文档、写材料为主,这方面感觉还是比不过5.1,如果不提前说多写点,默认情况下输出明显短于opus、5.1,文档ai味会比opus4.6(4.7ai味上来了)大一些
--【拾柒】--:
希望 DeepSeek v4 能给世界交出一份满意的答卷!不枉费各位一直等着
--【拾捌】--:
估计是还没有正式启用这些参数?现在的思维链默认挺短的,很多时候我就算要求思考也是不怎么思考就吐字了
--【拾玖】--:
这个版本应该是专门拿来测试的非满血版本,小参数模型,V4满血的参数量应该不至于这么快,不过这个速度是真的爽

