有什么不算太傻的4060能跑的模型吗

2026-04-11 14:561阅读0评论SEO资讯
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

正好有个闲置的笔记本,4060的,32G 内存,想问问有什么不算太傻的,出字还挺快的模型能跑,想用来玩轻度的角色扮演,当然我知道 Gemini API、Claude API 更好用,只是弄弄玩,闲的

网友解答:
--【壹】--:

qwen3.5 35B A3B是唯一真神。正好符合你32G内存。设置一下开160k上下文,差不多可以跑20t/s


--【贰】--:

35b的模型,显卡能放下去吗?


--【叁】--:

qwen3.5 35b a3b.
显存小于12g基本上只有选择qwen的可能


--【肆】--:

3060ti 8G 能玩甚麼模型?


--【伍】--:

哈哈哈,那些都玩腻了,就想自己跑跑看,熟悉一下这个流程。


--【陆】--:

感谢佬的耐心解答~


--【柒】--:

你要是能够忍受几秒蹦一个字的话选择还挺多的


--【捌】--:

3b不是激活参数吗?推理过程中不会变吗?


--【玖】--:

不如趁机先白嫖小米的模型,先给你角色板鸭功能实现了


--【拾】--:

顺便在此帖下问下
3060 12G能跑什么好用的模型


--【拾壹】--:

nanbeige4.1-3b i1


--【拾贰】--:

和4060基本一样
3060甚至高贵点,因为多的4g显存跑画图和视频生成挺舒服的


--【拾叁】--:

qwen3.5 35b a3b是moe模型,q4版本可以把主要的3b载到显存中,剩下的放到内存里就行了,速度在20tok/s以上,是当前的最优方案


--【拾肆】--:

佬那角色扮演适合啥


--【拾伍】--:

qwen3.5-35B-A3B


--【拾陆】--:

语音模型。


--【拾柒】--:

推理过程中,这3b变化不会特别大,实际上卸载到内存里也不会有太大影响


--【拾捌】--:

其实代际只有算力差,显存一样能玩的是相同的
llm就qwen,画图可以玩noob,zit,tts可以玩voxcpm和indextts2


--【拾玖】--:

qwen 3.5 9B,真的很不错

我主页有自己做的一些调整好的部署包 真正可用的小模型来了!Qwen3.5-9B 懒人本地部署包,7个工具开箱即用

标签:快问快答
问题描述:

正好有个闲置的笔记本,4060的,32G 内存,想问问有什么不算太傻的,出字还挺快的模型能跑,想用来玩轻度的角色扮演,当然我知道 Gemini API、Claude API 更好用,只是弄弄玩,闲的

网友解答:
--【壹】--:

qwen3.5 35B A3B是唯一真神。正好符合你32G内存。设置一下开160k上下文,差不多可以跑20t/s


--【贰】--:

35b的模型,显卡能放下去吗?


--【叁】--:

qwen3.5 35b a3b.
显存小于12g基本上只有选择qwen的可能


--【肆】--:

3060ti 8G 能玩甚麼模型?


--【伍】--:

哈哈哈,那些都玩腻了,就想自己跑跑看,熟悉一下这个流程。


--【陆】--:

感谢佬的耐心解答~


--【柒】--:

你要是能够忍受几秒蹦一个字的话选择还挺多的


--【捌】--:

3b不是激活参数吗?推理过程中不会变吗?


--【玖】--:

不如趁机先白嫖小米的模型,先给你角色板鸭功能实现了


--【拾】--:

顺便在此帖下问下
3060 12G能跑什么好用的模型


--【拾壹】--:

nanbeige4.1-3b i1


--【拾贰】--:

和4060基本一样
3060甚至高贵点,因为多的4g显存跑画图和视频生成挺舒服的


--【拾叁】--:

qwen3.5 35b a3b是moe模型,q4版本可以把主要的3b载到显存中,剩下的放到内存里就行了,速度在20tok/s以上,是当前的最优方案


--【拾肆】--:

佬那角色扮演适合啥


--【拾伍】--:

qwen3.5-35B-A3B


--【拾陆】--:

语音模型。


--【拾柒】--:

推理过程中,这3b变化不会特别大,实际上卸载到内存里也不会有太大影响


--【拾捌】--:

其实代际只有算力差,显存一样能玩的是相同的
llm就qwen,画图可以玩noob,zit,tts可以玩voxcpm和indextts2


--【拾玖】--:

qwen 3.5 9B,真的很不错

我主页有自己做的一些调整好的部署包 真正可用的小模型来了!Qwen3.5-9B 懒人本地部署包,7个工具开箱即用

标签:快问快答