deepseek v4 使用体验
- 内容介绍
- 文章标签
- 相关推荐
简单说一下体验:
配置:
用官方配置方案,接入claude,特别的:CLAUDE_CODE_EFFORT_LEVEL=max
token消耗:
截屏2026-04-27 01.33.442014×1982 196 KB
用了70M token,费用¥6.91 。对比:(之前表格统计有问题,更新数据)
| token | 调用次数 | 真实费用 | 计价费用(官方) | 备注 | |
|---|---|---|---|---|---|
| deepseek | 70M | 652 | ¥6.91 | ¥6.91 | claude中flash和pro混用 |
| right | 61M | 548 | ¥8.92 | $44.58 | codex调用gpt-5.5 |
不管从调用次数还是token消耗来看,deepseek的pro打折后甚至比中转站还便宜。
下面是cc插件统计的,实际花费70M,与统计是对得上的,如果是直接用claude官方模型,预计费用是$22.93:
使用体验:
总体而言,能满足我的使用需要。具体来说,对于需求的理解处于可用状态,少数情况需要纠偏。代码方面,前端代码一次过,不需要多废话;后端代码必须要求它做测试,才能处于可用状态。数据分析方面,有点小问题,逻辑思考不够完备,需要纠偏。还有,1M上下文真的爽,完全自由放飞,我目前最高占用0.3M,还没出现降智的情况。
结论:
现在打折阶段,我是直接替代掉gpt-5.5,成为主力工具。不是gpt-5.5不好用,而是中转的太不稳定了,时不时断线,而官方肯定用不起。
简单说一下体验:
配置:
用官方配置方案,接入claude,特别的:CLAUDE_CODE_EFFORT_LEVEL=max
token消耗:
截屏2026-04-27 01.33.442014×1982 196 KB
用了70M token,费用¥6.91 。对比:(之前表格统计有问题,更新数据)
| token | 调用次数 | 真实费用 | 计价费用(官方) | 备注 | |
|---|---|---|---|---|---|
| deepseek | 70M | 652 | ¥6.91 | ¥6.91 | claude中flash和pro混用 |
| right | 61M | 548 | ¥8.92 | $44.58 | codex调用gpt-5.5 |
不管从调用次数还是token消耗来看,deepseek的pro打折后甚至比中转站还便宜。
下面是cc插件统计的,实际花费70M,与统计是对得上的,如果是直接用claude官方模型,预计费用是$22.93:
使用体验:
总体而言,能满足我的使用需要。具体来说,对于需求的理解处于可用状态,少数情况需要纠偏。代码方面,前端代码一次过,不需要多废话;后端代码必须要求它做测试,才能处于可用状态。数据分析方面,有点小问题,逻辑思考不够完备,需要纠偏。还有,1M上下文真的爽,完全自由放飞,我目前最高占用0.3M,还没出现降智的情况。
结论:
现在打折阶段,我是直接替代掉gpt-5.5,成为主力工具。不是gpt-5.5不好用,而是中转的太不稳定了,时不时断线,而官方肯定用不起。

