deepseek v4 使用体验

2026-04-29 08:392阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

简单说一下体验:

配置:

用官方配置方案,接入claude,特别的:CLAUDE_CODE_EFFORT_LEVEL=max

token消耗:

截屏2026-04-27 01.33.442014×1982 196 KB

用了70M token,费用¥6.91 。对比:(之前表格统计有问题,更新数据)

token 调用次数 真实费用 计价费用(官方) 备注
deepseek 70M 652 ¥6.91 ¥6.91 claude中flash和pro混用
right 61M 548 ¥8.92 $44.58 codex调用gpt-5.5

不管从调用次数还是token消耗来看,deepseek的pro打折后甚至比中转站还便宜。

下面是cc插件统计的,实际花费70M,与统计是对得上的,如果是直接用claude官方模型,预计费用是$22.93:

使用体验:

总体而言,能满足我的使用需要。具体来说,对于需求的理解处于可用状态,少数情况需要纠偏。代码方面,前端代码一次过,不需要多废话;后端代码必须要求它做测试,才能处于可用状态。数据分析方面,有点小问题,逻辑思考不够完备,需要纠偏。还有,1M上下文真的爽,完全自由放飞,我目前最高占用0.3M,还没出现降智的情况。

结论:

现在打折阶段,我是直接替代掉gpt-5.5,成为主力工具。不是gpt-5.5不好用,而是中转的太不稳定了,时不时断线,而官方肯定用不起。打折结束后,不知道会不会有coding plan,pro不打折还是挺贵的。

网友解答:
--【壹】--: Mozi:

反正要会找,论坛里的没一个便宜的

佬友,这样的对绝大部分人来说都是很扯的做法。
都不够被骗和操心的。
怎么算会找,体面人受不了这个。
我是纯爱好者,一个月花100 200RMB爽蹬够用sonnet-4.6以上的就行了。

你说一天1.5亿token的用量,gpt-5.5还有多模态,如果是工作需要,
体面的公司和程序员应该都有给安排吧,还要自己找?


--【贰】--:

佬友,我之前用的一直是opencode,

在cc switch怎么配置deepseek,

这样对吗?

{ "env": { "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic", "ANTHROPIC_AUTH_TOKEN": "sk-xxx", "ANTHROPIC_MODEL": "deepseek-v4-pro[1m]", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash[1m]", "ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-flash[1m]", "ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro[1m]", "DISABLE_AUTOUPDATER": "1", "ANTHROPIC_REASONING_MODEL": "deepseek-v4-pro[1m]", "ENABLE_TOOL_SEARCH": "true", "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1" }, "effortLevel": "max", "alwaysThinkingEnabled": true, "attribution": { "commit": "", "pr": "" }, "includeCoAuthoredBy": false }


--【叁】--:

最近好多渠道都拉闸了吧,感觉下个月不乐观了


--【肆】--:

我每天1.5亿 token GPT5.5模型,换用Deepseek消费不起
5.5我每个月才100


--【伍】--:

我都咸鱼找,一家没有就另一家,反正总是有便宜的
我和朋友一起买反正不会中断


--【陆】--:

以前GPT5.4便宜的时候,一天能用10亿
大部分都走的缓存,很耐用


--【柒】--:

是啊,我现在基本就是用cc switch,比较方便切换和修改。


--【捌】--:

佬 cc+deepseek 可以用superpower加强可用性吗


--【玖】--:

不敢苟同。
上个星期240RMB买的pro 20x,也就活了一周。
那些所谓的中转渠道每一个可靠的。
你说的100是刀吧?

如果你说哪家质保100RMB/月,每天可用1.5亿token,
麻烦你告诉我,我去搜搜,我也不用deepseek了。
中转就算了,没一个可靠的,我自己买过用过。
不是乱加系统提示词弱智就是各种限速降智参假。


--【拾】--:

你可以期待一下我的,我打算上个99包月,不限token,但是会限制并发,主要是针对转手倒卖


--【拾壹】--:

反正要会找,论坛里的没一个便宜的
咸鱼里面的敏感词都要避开


--【拾贰】--:

那你对照着官方文档的字段去配置就可以的。其实变量名都一样的,只是配置格式不一样而已。


--【拾叁】--:

只要有sonnet-4.6效果,我就够用。
我亲测下来v4-pro-max绝对有过之而无不及,只是没多模态。
中转各种问题,各种残次不齐,各种乱加系统提示词,烦透了。

但是我能接受,因为:

image559×371 53.8 KB
image616×293 35.1 KB


--【拾肆】--:

这么恐怖的使用量!!以后openAI要是把后门关了,可咋整?


--【拾伍】--:

差不多,每天写写代码都要五六亿。只有订阅制的才行,ds点卡的依然贵


--【拾陆】--:

官方文档是这样写的:
Linux / Mac 用户执行以下命令配置 DeepSeek Anthropic API 环境变量,其中 API Key 在 DeepSeek Platform 获取:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN=<你的 DeepSeek API Key> export ANTHROPIC_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash export CLAUDE_CODE_EFFORT_LEVEL=max


--【拾柒】--:

我買了claude max 200,裝了ccusege,每個月用量大概是4.5000刀,我如果改用deepseek會划算嗎?


--【拾捌】--:

这好像是cli的写法,
在.claude上写又另一种写法,谢谢佬友


--【拾玖】--:

cli的环境变量配置方式,其实更方便。比如结合iTerm的send snippet工具,想用哪个就发哪个的环境变量。就算没有send snippet这种工具,也可以写个sh脚本,直接一键切换不同配置。当然用ccswitch也是可以的。感觉直接写配置表是最麻烦的了,切换太不方便了。

标签:人工智能
问题描述:

简单说一下体验:

配置:

用官方配置方案,接入claude,特别的:CLAUDE_CODE_EFFORT_LEVEL=max

token消耗:

截屏2026-04-27 01.33.442014×1982 196 KB

用了70M token,费用¥6.91 。对比:(之前表格统计有问题,更新数据)

token 调用次数 真实费用 计价费用(官方) 备注
deepseek 70M 652 ¥6.91 ¥6.91 claude中flash和pro混用
right 61M 548 ¥8.92 $44.58 codex调用gpt-5.5

不管从调用次数还是token消耗来看,deepseek的pro打折后甚至比中转站还便宜。

下面是cc插件统计的,实际花费70M,与统计是对得上的,如果是直接用claude官方模型,预计费用是$22.93:

使用体验:

总体而言,能满足我的使用需要。具体来说,对于需求的理解处于可用状态,少数情况需要纠偏。代码方面,前端代码一次过,不需要多废话;后端代码必须要求它做测试,才能处于可用状态。数据分析方面,有点小问题,逻辑思考不够完备,需要纠偏。还有,1M上下文真的爽,完全自由放飞,我目前最高占用0.3M,还没出现降智的情况。

结论:

现在打折阶段,我是直接替代掉gpt-5.5,成为主力工具。不是gpt-5.5不好用,而是中转的太不稳定了,时不时断线,而官方肯定用不起。打折结束后,不知道会不会有coding plan,pro不打折还是挺贵的。

网友解答:
--【壹】--: Mozi:

反正要会找,论坛里的没一个便宜的

佬友,这样的对绝大部分人来说都是很扯的做法。
都不够被骗和操心的。
怎么算会找,体面人受不了这个。
我是纯爱好者,一个月花100 200RMB爽蹬够用sonnet-4.6以上的就行了。

你说一天1.5亿token的用量,gpt-5.5还有多模态,如果是工作需要,
体面的公司和程序员应该都有给安排吧,还要自己找?


--【贰】--:

佬友,我之前用的一直是opencode,

在cc switch怎么配置deepseek,

这样对吗?

{ "env": { "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic", "ANTHROPIC_AUTH_TOKEN": "sk-xxx", "ANTHROPIC_MODEL": "deepseek-v4-pro[1m]", "ANTHROPIC_DEFAULT_HAIKU_MODEL": "deepseek-v4-flash[1m]", "ANTHROPIC_DEFAULT_SONNET_MODEL": "deepseek-v4-flash[1m]", "ANTHROPIC_DEFAULT_OPUS_MODEL": "deepseek-v4-pro[1m]", "DISABLE_AUTOUPDATER": "1", "ANTHROPIC_REASONING_MODEL": "deepseek-v4-pro[1m]", "ENABLE_TOOL_SEARCH": "true", "CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS": "1" }, "effortLevel": "max", "alwaysThinkingEnabled": true, "attribution": { "commit": "", "pr": "" }, "includeCoAuthoredBy": false }


--【叁】--:

最近好多渠道都拉闸了吧,感觉下个月不乐观了


--【肆】--:

我每天1.5亿 token GPT5.5模型,换用Deepseek消费不起
5.5我每个月才100


--【伍】--:

我都咸鱼找,一家没有就另一家,反正总是有便宜的
我和朋友一起买反正不会中断


--【陆】--:

以前GPT5.4便宜的时候,一天能用10亿
大部分都走的缓存,很耐用


--【柒】--:

是啊,我现在基本就是用cc switch,比较方便切换和修改。


--【捌】--:

佬 cc+deepseek 可以用superpower加强可用性吗


--【玖】--:

不敢苟同。
上个星期240RMB买的pro 20x,也就活了一周。
那些所谓的中转渠道每一个可靠的。
你说的100是刀吧?

如果你说哪家质保100RMB/月,每天可用1.5亿token,
麻烦你告诉我,我去搜搜,我也不用deepseek了。
中转就算了,没一个可靠的,我自己买过用过。
不是乱加系统提示词弱智就是各种限速降智参假。


--【拾】--:

你可以期待一下我的,我打算上个99包月,不限token,但是会限制并发,主要是针对转手倒卖


--【拾壹】--:

反正要会找,论坛里的没一个便宜的
咸鱼里面的敏感词都要避开


--【拾贰】--:

那你对照着官方文档的字段去配置就可以的。其实变量名都一样的,只是配置格式不一样而已。


--【拾叁】--:

只要有sonnet-4.6效果,我就够用。
我亲测下来v4-pro-max绝对有过之而无不及,只是没多模态。
中转各种问题,各种残次不齐,各种乱加系统提示词,烦透了。

但是我能接受,因为:

image559×371 53.8 KB
image616×293 35.1 KB


--【拾肆】--:

这么恐怖的使用量!!以后openAI要是把后门关了,可咋整?


--【拾伍】--:

差不多,每天写写代码都要五六亿。只有订阅制的才行,ds点卡的依然贵


--【拾陆】--:

官方文档是这样写的:
Linux / Mac 用户执行以下命令配置 DeepSeek Anthropic API 环境变量,其中 API Key 在 DeepSeek Platform 获取:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN=<你的 DeepSeek API Key> export ANTHROPIC_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro[1m] export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash export CLAUDE_CODE_EFFORT_LEVEL=max


--【拾柒】--:

我買了claude max 200,裝了ccusege,每個月用量大概是4.5000刀,我如果改用deepseek會划算嗎?


--【拾捌】--:

这好像是cli的写法,
在.claude上写又另一种写法,谢谢佬友


--【拾玖】--:

cli的环境变量配置方式,其实更方便。比如结合iTerm的send snippet工具,想用哪个就发哪个的环境变量。就算没有send snippet这种工具,也可以写个sh脚本,直接一键切换不同配置。当然用ccswitch也是可以的。感觉直接写配置表是最麻烦的了,切换太不方便了。

标签:人工智能