DeepSeek 新增“专家模式”、“快速模式”切换
- 内容介绍
- 文章标签
- 相关推荐
1775577466456_d972×565 17.5 KB
目前正在分批推送中,测试发现不支持多模态,期待佬友们进一步测试!
https://chat.deepseek.com/
网友解答:--【壹】--:
看到了,应该是一个底层能力,问洗车问题好像还是走路
--【贰】--:
image1362×804 84.3 KB
强爆了
--【叁】--:
终于终于终于来了,之前一直都是谣传,开玩
--【肆】--:
还不支持多模态?DeepSeek在这一波里面沉寂了太久了。
--【伍】--:
我问了,回答说快速和专家底层是一个模型.
--【陆】--:
我去,感觉得到deepseek变了个人一样,越来越像gemini了,不像国产模型了
--【柒】--: deepseek网页端更新了! 前沿快讯
[图片] wc
svg能画的更好了
--【捌】--:
这个版本有什么特别的?????我擦为什么要回复20个字
--【玖】--:
个人体验了一下,用词比gemini地道多了,很有中国味。然后基本体验下来跟之前的deepseek以及其他的国产大模型差距很远。能力,说话都很像gemini了。那种满嘴“熵增”的味道没了。
--【拾】--:
好像还有一个多模态模式还没有出,不知道是不是真的
--【拾壹】--:
已经全推送了,我也收到了,我猜就在明天,deepsleep即将发布V4
--【拾贰】--:
刚看了,我的账号也显示这个了 专家模式,
--【拾叁】--:
刚看了站内帖子,好像一开始还有 Vision 模式,但是我这边只有这两种模式。
--【拾肆】--:
测试了一个魔方题 感觉非常的牛逼啊我测 这个题目别的国产模型不一定做的对的
--【拾伍】--:
真的越来越期待DeepSeekV4的震撼发布了
--【拾陆】--:
还不太清楚,可能参数量更大,因为之前在社交媒体上看到他们官方人员说之前推送的 1M 上下文模型是参数量较小的型号。
--【拾柒】--:
有了
12559×1347 78 KB
--【拾捌】--:
2M上下文吗????????????????????????
--【拾玖】--:
5分钟之前我的账号还没有,但是现在刚才刷新了一下就有了
1775577466456_d972×565 17.5 KB
目前正在分批推送中,测试发现不支持多模态,期待佬友们进一步测试!
https://chat.deepseek.com/
网友解答:--【壹】--:
看到了,应该是一个底层能力,问洗车问题好像还是走路
--【贰】--:
image1362×804 84.3 KB
强爆了
--【叁】--:
终于终于终于来了,之前一直都是谣传,开玩
--【肆】--:
还不支持多模态?DeepSeek在这一波里面沉寂了太久了。
--【伍】--:
我问了,回答说快速和专家底层是一个模型.
--【陆】--:
我去,感觉得到deepseek变了个人一样,越来越像gemini了,不像国产模型了
--【柒】--: deepseek网页端更新了! 前沿快讯
[图片] wc
svg能画的更好了
--【捌】--:
这个版本有什么特别的?????我擦为什么要回复20个字
--【玖】--:
个人体验了一下,用词比gemini地道多了,很有中国味。然后基本体验下来跟之前的deepseek以及其他的国产大模型差距很远。能力,说话都很像gemini了。那种满嘴“熵增”的味道没了。
--【拾】--:
好像还有一个多模态模式还没有出,不知道是不是真的
--【拾壹】--:
已经全推送了,我也收到了,我猜就在明天,deepsleep即将发布V4
--【拾贰】--:
刚看了,我的账号也显示这个了 专家模式,
--【拾叁】--:
刚看了站内帖子,好像一开始还有 Vision 模式,但是我这边只有这两种模式。
--【拾肆】--:
测试了一个魔方题 感觉非常的牛逼啊我测 这个题目别的国产模型不一定做的对的
--【拾伍】--:
真的越来越期待DeepSeekV4的震撼发布了
--【拾陆】--:
还不太清楚,可能参数量更大,因为之前在社交媒体上看到他们官方人员说之前推送的 1M 上下文模型是参数量较小的型号。
--【拾柒】--:
有了
12559×1347 78 KB
--【拾捌】--:
2M上下文吗????????????????????????
--【拾玖】--:
5分钟之前我的账号还没有,但是现在刚才刷新了一下就有了

