deepseek 养虾养马 咋样?

2026-04-29 08:462阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

突发奇想,冲了 50 块,用 deepseek-V4 flash来养马,会不会很合适

网友解答:
--【壹】--:

主要感觉deepseek的模型agent能力不太够,执行复杂的任务老是断,glm就比较严谨,你要长上下文不久只有deepseek能用了这么说


--【贰】--:

这样啊 我还没接入 现在还在用 codex 的 GPT5.4 在养马,我的强度不高,佬用的啥模型啊


--【叁】--:

可能有点贵,刚才试了下pro “分析代码是否有脏逻辑和风险以及BUG” 一个几十个文件的小项目的代码,花了1.2


--【肆】--:

缓存价格降低后,养强度不高,应该用不了10块钱一天吧


--【伍】--:

建议不要,ds-v4-pro,我在hermes里面用起来太害怕了,就像是一个愣头青,不太遵循指令,有比较大的风险。


--【陆】--:

glm上下文太短了,养虾完全不合适,我也想轻度的养虾用户用deepseek应该还不错


--【柒】--:

好像没遇到这个问题啊,我叫干什么都是一股气直接干完了,还是上下文香一点,长任务很香


--【捌】--:

真要用还是glm5.1最合适,找找速度快的渠道


--【玖】--:

dsv4 flash 体验上我感觉用来养马还是挺好的,glm的编程套餐没法用来养马。差不多跑下来一天10块钱吧


--【拾】--:

自己用下来感觉真行 比其他模型反应要快点 之前用glm感觉呆呆的 现在价格还便宜


--【拾壹】--:

api计费养虾养马还是太激进了吧,一天按1亿算,不也得十几二十块了


--【拾贰】--:

实测 pro没有 glm kimi2.6 厉害,但是也不差多少,比剩下的强


--【拾叁】--:

有 plan 会不会好一些, 我用了两天,每天 10块,这要是一个月,也不便宜啊


--【拾肆】--:

感觉 DS 可能不是走这个路线的。要是出 Plan 的话,必冲啊。用了两天了,体感真可以。


--【拾伍】--:

我今天用了一天了,基本上没啥问题,思考强度max


--【拾陆】--:

我觉得是现阶段养最合适的模型,没有之一(超便宜,速度快,中文表达很好)


--【拾柒】--:

已经是性价比的天花板了, 还要什么自行车?


--【拾捌】--:

马现在还不支持v4的api啊,会报那个不回传thinking导致的http 400,虾倒是前几天立刻修了,如果修复了用flash养马也基本够用,跟kimi k2.5差不多了


--【拾玖】--:

那看来还是有点贵啊,还是有 plan 会合适些

问题描述:

突发奇想,冲了 50 块,用 deepseek-V4 flash来养马,会不会很合适

网友解答:
--【壹】--:

主要感觉deepseek的模型agent能力不太够,执行复杂的任务老是断,glm就比较严谨,你要长上下文不久只有deepseek能用了这么说


--【贰】--:

这样啊 我还没接入 现在还在用 codex 的 GPT5.4 在养马,我的强度不高,佬用的啥模型啊


--【叁】--:

可能有点贵,刚才试了下pro “分析代码是否有脏逻辑和风险以及BUG” 一个几十个文件的小项目的代码,花了1.2


--【肆】--:

缓存价格降低后,养强度不高,应该用不了10块钱一天吧


--【伍】--:

建议不要,ds-v4-pro,我在hermes里面用起来太害怕了,就像是一个愣头青,不太遵循指令,有比较大的风险。


--【陆】--:

glm上下文太短了,养虾完全不合适,我也想轻度的养虾用户用deepseek应该还不错


--【柒】--:

好像没遇到这个问题啊,我叫干什么都是一股气直接干完了,还是上下文香一点,长任务很香


--【捌】--:

真要用还是glm5.1最合适,找找速度快的渠道


--【玖】--:

dsv4 flash 体验上我感觉用来养马还是挺好的,glm的编程套餐没法用来养马。差不多跑下来一天10块钱吧


--【拾】--:

自己用下来感觉真行 比其他模型反应要快点 之前用glm感觉呆呆的 现在价格还便宜


--【拾壹】--:

api计费养虾养马还是太激进了吧,一天按1亿算,不也得十几二十块了


--【拾贰】--:

实测 pro没有 glm kimi2.6 厉害,但是也不差多少,比剩下的强


--【拾叁】--:

有 plan 会不会好一些, 我用了两天,每天 10块,这要是一个月,也不便宜啊


--【拾肆】--:

感觉 DS 可能不是走这个路线的。要是出 Plan 的话,必冲啊。用了两天了,体感真可以。


--【拾伍】--:

我今天用了一天了,基本上没啥问题,思考强度max


--【拾陆】--:

我觉得是现阶段养最合适的模型,没有之一(超便宜,速度快,中文表达很好)


--【拾柒】--:

已经是性价比的天花板了, 还要什么自行车?


--【拾捌】--:

马现在还不支持v4的api啊,会报那个不回传thinking导致的http 400,虾倒是前几天立刻修了,如果修复了用flash养马也基本够用,跟kimi k2.5差不多了


--【拾玖】--:

那看来还是有点贵啊,还是有 plan 会合适些