感觉deepseek api反应好快。。。

2026-04-29 10:462阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

今天看佬友们说deepseek更新了api端口,想着已经接近1年没用过deepseek了,试试看agent能力有没有加强,充了一点钱,ccs里配置如下:

image872×302 34.6 KB


体验了一下,完全一改之前卡卡的印象,感觉反应有点太快了点。。。感觉比gpt还快,近期在cc里用sonnet中转、glm官方5.1(这个慢死了。。。)、5.4(codex账号),最快的就是5.4了,没想到今天试了一下deep反应比5.4还快(不知道是不是因为这个点用的人少,不过下午也用了下,也蛮快,但是晚上这个有点太快了 ),质量的话中规中举,不过用来干简单的任务绝对够了)

越来越期待v4了

网友解答:
--【壹】--:

这么看来还挺快的啊!可以的可以的啊。应该挺好用


--【贰】--:

别说开发
rp都不太行
你不能指望一个和minimax差不多规模的小模型开发


--【叁】--:

现在已经是 v4lite 了吗,在 cc 里爽蹬了


--【肆】--:

拿来写代码的话和glm相比如何,国产模型能有个顺畅写代码给力的就好了


--【伍】--:

就怕是快是因为现在没人蹬。。。蹬v4发布,再豪华的服务器集群也是包卡的


--【陆】--:

这要是国产卡能跑到这个速度,也是很大进步了,之前以为用华为的卡可能会比较慢


--【柒】--:

今晚这个大抵就是v4l了,体感有60-70/s ,但感觉和web当时的感觉又不太一样,又不太敢确定


--【捌】--:

确实相比gpt claude这些模型,国内的真的很快,但是之前用的小米的很快但没什么用


--【玖】--:

据说是上的V4Lite,速度确实快,80tokens/s。放一张API跑的天气卡片,

image1456×687 87.5 KB

感觉和官网的还不太一样。


--【拾】--:

确实,感觉虽然开了max思考但跟没开似的


--【拾壹】--:

快到逆天但是感觉有点呆 小模型的感觉蚌埠


--【拾贰】--:

拿来开发效果怎么样,还行的话我也去试试,上次也提前充了点钱等v4发布的。


--【拾叁】--:

我印象还停留在R1,以为用reasoner速度可能跟这个差不多,质量没惊到我,反而是速度惊到我了


--【拾肆】--:

速度快,资费再便宜点,大家这样都能用起希望能如愿


--【拾伍】--:

拿来当翻译模型太爽了,速度飞快,一下子就都出来了


--【拾陆】--:

我主要不是拿来写代码,我写文档、写材料为主,这方面感觉还是比不过5.1,如果不提前说多写点,默认情况下输出明显短于opus、5.1,文档ai味会比opus4.6(4.7ai味上来了)大一些


--【拾柒】--:

希望 DeepSeek v4 能给世界交出一份满意的答卷!不枉费各位一直等着


--【拾捌】--:

估计是还没有正式启用这些参数?现在的思维链默认挺短的,很多时候我就算要求思考也是不怎么思考就吐字了


--【拾玖】--:

这个版本应该是专门拿来测试的非满血版本,小参数模型,V4满血的参数量应该不至于这么快,不过这个速度是真的爽

问题描述:

今天看佬友们说deepseek更新了api端口,想着已经接近1年没用过deepseek了,试试看agent能力有没有加强,充了一点钱,ccs里配置如下:

image872×302 34.6 KB


体验了一下,完全一改之前卡卡的印象,感觉反应有点太快了点。。。感觉比gpt还快,近期在cc里用sonnet中转、glm官方5.1(这个慢死了。。。)、5.4(codex账号),最快的就是5.4了,没想到今天试了一下deep反应比5.4还快(不知道是不是因为这个点用的人少,不过下午也用了下,也蛮快,但是晚上这个有点太快了 ),质量的话中规中举,不过用来干简单的任务绝对够了)

越来越期待v4了

网友解答:
--【壹】--:

这么看来还挺快的啊!可以的可以的啊。应该挺好用


--【贰】--:

别说开发
rp都不太行
你不能指望一个和minimax差不多规模的小模型开发


--【叁】--:

现在已经是 v4lite 了吗,在 cc 里爽蹬了


--【肆】--:

拿来写代码的话和glm相比如何,国产模型能有个顺畅写代码给力的就好了


--【伍】--:

就怕是快是因为现在没人蹬。。。蹬v4发布,再豪华的服务器集群也是包卡的


--【陆】--:

这要是国产卡能跑到这个速度,也是很大进步了,之前以为用华为的卡可能会比较慢


--【柒】--:

今晚这个大抵就是v4l了,体感有60-70/s ,但感觉和web当时的感觉又不太一样,又不太敢确定


--【捌】--:

确实相比gpt claude这些模型,国内的真的很快,但是之前用的小米的很快但没什么用


--【玖】--:

据说是上的V4Lite,速度确实快,80tokens/s。放一张API跑的天气卡片,

image1456×687 87.5 KB

感觉和官网的还不太一样。


--【拾】--:

确实,感觉虽然开了max思考但跟没开似的


--【拾壹】--:

快到逆天但是感觉有点呆 小模型的感觉蚌埠


--【拾贰】--:

拿来开发效果怎么样,还行的话我也去试试,上次也提前充了点钱等v4发布的。


--【拾叁】--:

我印象还停留在R1,以为用reasoner速度可能跟这个差不多,质量没惊到我,反而是速度惊到我了


--【拾肆】--:

速度快,资费再便宜点,大家这样都能用起希望能如愿


--【拾伍】--:

拿来当翻译模型太爽了,速度飞快,一下子就都出来了


--【拾陆】--:

我主要不是拿来写代码,我写文档、写材料为主,这方面感觉还是比不过5.1,如果不提前说多写点,默认情况下输出明显短于opus、5.1,文档ai味会比opus4.6(4.7ai味上来了)大一些


--【拾柒】--:

希望 DeepSeek v4 能给世界交出一份满意的答卷!不枉费各位一直等着


--【拾捌】--:

估计是还没有正式启用这些参数?现在的思维链默认挺短的,很多时候我就算要求思考也是不怎么思考就吐字了


--【拾玖】--:

这个版本应该是专门拿来测试的非满血版本,小参数模型,V4满血的参数量应该不至于这么快,不过这个速度是真的爽