CC+DeepSeekV4编程实践

2026-04-29 08:582阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

使用CC配置DeepSeekV4完成一个不算太复杂但是工程量比较大的任务:
模型:deepseek-v4-pro
思考深度:max
cost: ¥8.35
改动文件数:30
最终context:100%(未开1m)
耗时:约1 小时 6 分钟
相关截图:
image2010×833 75.2 KB
image2774×1913 227 KB
image1562×1468 234 KB
image2327×1167 320 KB

评价:
这个价格能接受,如果换到opus要花¥30+,但是这是官网骨折优惠的价格,恢复原价后需要再评估;
开启max,虽然写法有几处我不满意,但是总体没有问题,可以替换4.7。
推荐各位佬友试试,共同讨论。

网友解答:
--【壹】--:

我准备搞deepseek对话+推理+影响分析+写plan,让codex执行plan+coding+验证+review


--【贰】--:

key已经泄露,后面记得删除key,免得被滥用


--【叁】--:

export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=<你的 DeepSeek API Key>
export ANTHROPIC_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_OPUS_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_SONNET_MODEL=deepseek-v4-pro[1m]
export ANTHROPIC_DEFAULT_HAIKU_MODEL=deepseek-v4-flash
export CLAUDE_CODE_SUBAGENT_MODEL=deepseek-v4-flash
export CLAUDE_CODE_EFFORT_LEVEL=max

api-docs.deepseek.com

接入 AI 工具 | DeepSeek API Docs

本文介绍如何将 DeepSeek 模型接入到 Claude Code、OpenCode、OpenClaw 等主流 AI 工具中。


--【肆】--: taogeice:

配置可以贴一个我看

我先考虑的是pro能不能替代opus,flash替代haiku我觉得没问题。可以调整配置降低价格。另外官网价格打骨折,用用pro也无妨。我这个消耗大主要是涉及的文件多,改的也多,CC开多个子agent跑的。


--【伍】--:

最恶心的是中转会给你塞别的模型的东西进去,还得提防混用模型的情况买过一家早上是opus4.6下午变成minmax2.7的


--【陆】--:

那其实还可以啊这个花费,已经叫公司冲了一点钱试一试了 “env”: {
“ANTHROPIC_AUTH_TOKEN”: “”,
“ANTHROPIC_BASE_URL”: “https://api.deepseek.com/anthropic”,
“ANTHROPIC_DEFAULT_HAIKU_MODEL”: “deepseek-v4-flash[1m]”,
“ANTHROPIC_DEFAULT_OPUS_MODEL”: “deepseek-v4-pro[1m]”,
“ANTHROPIC_DEFAULT_SONNET_MODEL”: “deepseek-v4-pro[1m]”,
“ANTHROPIC_MODEL”: “deepseek-v4-pro[1m]”,
“API_TIMEOUT_MS”: 3000000,
“CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC”: 1,
“CLAUDE_CODE_DISABLE_NONSTREAMING_FALLBACK”: 1,
“CLAUDE_CODE_EFFORT_LEVEL”: “max”,
“CLAUDE_CODE_SUBAGENT_MODEL”: “deepseek-v4-flash[1m]”,
“DISABLE_AUTOUPDATER”: “1”
}, 我是这样配置的 刚刚用了一下发现还可以


--【柒】--: sww:

“ANTHROPIC_AUTH_TOKEN”:

你是不是把key漏出来了,还放在没有级别限制的,小心被滥用了佬。


--【捌】--:

没注意到细节,谢谢佬友提醒,我改一下。


--【玖】--:

中转真的不如搞v4了,太特么贵了。简直是烧钱


--【拾】--:

用 CC + deepseek-v4-pro 跑了一轮,思考深度开到 max。
任务不算复杂但工程量比较大,整体改了 30 个文件,1 小时左右完成。
成本 ¥8.35,context 基本吃满(100%)。


--【拾壹】--:

image1750×582 71.5 KB

“env”: {
“ANTHROPIC_BASE_URL”: “https://api.deepseek.com/anthropic”,
“ANTHROPIC_AUTH_TOKEN”: “sk- xxxxxxxxxxxxxxxxxxxxxxx”,
“ANTHROPIC_DEFAULT_OPUS_MODEL”: “deepseek-v4-pro”,
“ANTHROPIC_REASONING_MODEL”: “deepseek-v4-pro”,
“ANTHROPIC_DEFAULT_SONNET_MODEL”: “deepseek-v4-pro”,
“ANTHROPIC_DEFAULT_HAIKU_MODEL”: “deepseek-v4-pro”,
“ANTHROPIC_MODEL”: “deepseek-v4-pro”,
“CLAUDE_CODE_EFFORT_LEVEL”: “max”,
“CLAUDE_CODE_ATTRIBUTION_HEADER”: “O”,
“CLAUDE_CODE_BLOCKING_LIMIT_OVERRIDE”: “193000”,
“CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS”: “1”,
“CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC”: “1”,
“CLAUDE_CODE_MAX_OUTPUT_TOKENS”: “64000”,
“CLAUDE_CODE_SUBAGENT_MODEL”: “deepseek-v4-pro”,
“DISABLE_TELEMETRY”: “0”,
“ENABLE_TOOL_SEARCH”: “auto”
},
我用的CCS


--【拾贰】--:

看官方文档,有教怎么开1m和max,事实上官方教的就是这个配置


--【拾叁】--:

听别的佬友说,v4思考推理已经是不逊于opus4.6了,从零开始写代码不太行,但是改代码意外的还不错


--【拾肆】--:

不要把key露出来啊 ,还有你要在模型后面加入[1m]这个才能打开cc的1m上下文支持


--【拾伍】--:

对比glm5.1怎么样,有使用过的大佬么


--【拾陆】--:

佬你的cc配置可以贴一个我看看吗 有没有开启1m上下文 我看官方那个cc配置好像是在简单任务下配置快速模型的 你这个花费全是pro模型 配置一些快速模型是不是花费还能更低


--【拾柒】--:

是的,恶心人,还有随意涨价,随意掺假。巨恶心


--【拾捌】--: fen:

v4思考推

opus走中转太贵了,我正在尝试更换到v4


--【拾玖】--:

好像是上下文注意力比较强,导致的找某些bug好像是比较强,我看很多人都测试大海捞针不知道是不是这个有关系