2年后再讨论:coding plan还是本地模型

2026-04-29 11:034阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

两年前,我开了个贴:《4k 买 API 额度还是买显卡》

转眼 2026 年了。我现在用的是 Claude 初始号通过 Google Play 订阅的 Max 20x,一年下来算算得 2w RMB 左右。对于一个不吃开发饭、也没兼职接单的纯业余选手来说,这笔钱确实不便宜。

但说实话,我一点都不后悔。

尤其是 Claude Cowork 那套用法,真的让我工作时进入一种很舒服的状态。省下来的时间和精力,够我在 L 站好好摸鱼了,工作效率肉眼可见地提升。以前我愿意每个月花 2k 让工作更轻松,现在回想,那时候的决定还是对的。

不过,今年换了工作环境,降薪后这 2w 的年费突然就有点咬人了。预算一紧,初心虽然没变(还是想工作爽一点),但现实开始提醒我,要省钱。

所以回归最初的话题——2026 年,对于像我这样的 coding plan 重度业余用户,到底是继续云端 API,还是转向本地模型?

我试过国模,也用过论坛的公益站,甚至付费体验过各种中转站。但对我来说,跟自己的工作流真的不完全适配。Claude 那套“像靠谱同事在旁边一起思考”的感觉,本地模型目前还差那么一点,尤其是长上下文规划、复杂迭代调试的时候,磨合起来总觉得差点味道。

我以前组过一台 44G 魔改 2080ti 的 AI 服务器,那时候纯粹是兴趣驱动,也在职场上小小获益,起码对 LLM 有了一点基础认知。现在想想,那段折腾的经历挺宝贵的。

今年预算敏感了,我在纠结:是降级 Claude 到 Max 5x(或找更划算的聚合方案),专门留给最复杂任务;还是重新拾起本地表现很强的开源模型,日常简单 coding、补全、调试交给本地,复杂场景再切 Claude?

但前期肯定要重新适应:部署、量化、提示词工程、工具链整合……不像 Claude 开箱即用那么丝滑。

想到什么说什么,或许2年后会再有一篇帖子谈论新的选择。

网友解答:
--【壹】--:

本地模型 还是太天真了,上百万可能才能达到在线的效果


--【贰】--:

从性价比的角度来说,2年以后我觉得还是coding plan


--【叁】--:

刚刚我还在微信群里看到有人说 32b 本地部署单人编码用就够了…
我就纳闷了 32b 真有用 codingplan 为啥不用小模型. 大模型不就是为了减少问题出现,保证质量么。
所以我个人感觉 2 年后还是 codingplan。 虽然我不太懂大模型底层算法与哪里,但是我个人感觉云端模型参数量太大,满血模型的很多能力在简单写码任务里暂时没被榨干;但在复杂仓库、多轮修改、长上下文、边角 bug、工具调用一致性这些地方,它们会显著影响成功率。


--【肆】--:

如此重度使用的话对模型智能要求非常高。能力靠前的开源模型动辄 671B 744B,8 卡 H100 也很难直接装下。本地替代 coding plan,现在讨论仍然为时尚早了


--【伍】--:

我就没见过本地够强的,你内网什么算力集群啊

可是嫌弱嫌贵变成托管算力,还是回到API去了


--【陆】--:

本地模型是个伪命题,因为现在能力强的大模型需要的资源也很高。换句话说哪怕你接受使用量化版本的30,40b的模型跑代码,要想流畅使用最起码也得5080或5090级别,光装机就要两三万起步。而如果想布能力饱受诟病的minimax的服务器价格也不便宜,不如你去买一个月几十块钱的minimax token套餐。


--【柒】--:

上百还是太轻了,前两天社里还在讨论自己买卡做中转,我查了一下一台b300,450w,跑glm5.1 也不能是满血版。你看这咋说


--【捌】--:

佬,比起这个,我更感兴趣的是,佬怎样用 Max 20x 通过 Google Play 订阅24个月都没被封号的,是用什么家宽呢


--【玖】--:

初始老号随便跳,23年7月份注册的,基本不挑

标签:人工智能
问题描述:

两年前,我开了个贴:《4k 买 API 额度还是买显卡》

转眼 2026 年了。我现在用的是 Claude 初始号通过 Google Play 订阅的 Max 20x,一年下来算算得 2w RMB 左右。对于一个不吃开发饭、也没兼职接单的纯业余选手来说,这笔钱确实不便宜。

但说实话,我一点都不后悔。

尤其是 Claude Cowork 那套用法,真的让我工作时进入一种很舒服的状态。省下来的时间和精力,够我在 L 站好好摸鱼了,工作效率肉眼可见地提升。以前我愿意每个月花 2k 让工作更轻松,现在回想,那时候的决定还是对的。

不过,今年换了工作环境,降薪后这 2w 的年费突然就有点咬人了。预算一紧,初心虽然没变(还是想工作爽一点),但现实开始提醒我,要省钱。

所以回归最初的话题——2026 年,对于像我这样的 coding plan 重度业余用户,到底是继续云端 API,还是转向本地模型?

我试过国模,也用过论坛的公益站,甚至付费体验过各种中转站。但对我来说,跟自己的工作流真的不完全适配。Claude 那套“像靠谱同事在旁边一起思考”的感觉,本地模型目前还差那么一点,尤其是长上下文规划、复杂迭代调试的时候,磨合起来总觉得差点味道。

我以前组过一台 44G 魔改 2080ti 的 AI 服务器,那时候纯粹是兴趣驱动,也在职场上小小获益,起码对 LLM 有了一点基础认知。现在想想,那段折腾的经历挺宝贵的。

今年预算敏感了,我在纠结:是降级 Claude 到 Max 5x(或找更划算的聚合方案),专门留给最复杂任务;还是重新拾起本地表现很强的开源模型,日常简单 coding、补全、调试交给本地,复杂场景再切 Claude?

但前期肯定要重新适应:部署、量化、提示词工程、工具链整合……不像 Claude 开箱即用那么丝滑。

想到什么说什么,或许2年后会再有一篇帖子谈论新的选择。

网友解答:
--【壹】--:

本地模型 还是太天真了,上百万可能才能达到在线的效果


--【贰】--:

从性价比的角度来说,2年以后我觉得还是coding plan


--【叁】--:

刚刚我还在微信群里看到有人说 32b 本地部署单人编码用就够了…
我就纳闷了 32b 真有用 codingplan 为啥不用小模型. 大模型不就是为了减少问题出现,保证质量么。
所以我个人感觉 2 年后还是 codingplan。 虽然我不太懂大模型底层算法与哪里,但是我个人感觉云端模型参数量太大,满血模型的很多能力在简单写码任务里暂时没被榨干;但在复杂仓库、多轮修改、长上下文、边角 bug、工具调用一致性这些地方,它们会显著影响成功率。


--【肆】--:

如此重度使用的话对模型智能要求非常高。能力靠前的开源模型动辄 671B 744B,8 卡 H100 也很难直接装下。本地替代 coding plan,现在讨论仍然为时尚早了


--【伍】--:

我就没见过本地够强的,你内网什么算力集群啊

可是嫌弱嫌贵变成托管算力,还是回到API去了


--【陆】--:

本地模型是个伪命题,因为现在能力强的大模型需要的资源也很高。换句话说哪怕你接受使用量化版本的30,40b的模型跑代码,要想流畅使用最起码也得5080或5090级别,光装机就要两三万起步。而如果想布能力饱受诟病的minimax的服务器价格也不便宜,不如你去买一个月几十块钱的minimax token套餐。


--【柒】--:

上百还是太轻了,前两天社里还在讨论自己买卡做中转,我查了一下一台b300,450w,跑glm5.1 也不能是满血版。你看这咋说


--【捌】--:

佬,比起这个,我更感兴趣的是,佬怎样用 Max 20x 通过 Google Play 订阅24个月都没被封号的,是用什么家宽呢


--【玖】--:

初始老号随便跳,23年7月份注册的,基本不挑

标签:人工智能