有什么不算太傻的4060能跑的模型吗
- 内容介绍
- 文章标签
- 相关推荐
正好有个闲置的笔记本,4060的,32G 内存,想问问有什么不算太傻的,出字还挺快的模型能跑,想用来玩轻度的角色扮演,当然我知道 Gemini API、Claude API 更好用,只是弄弄玩,闲的
网友解答:--【壹】--:
qwen3.5 35B A3B是唯一真神。正好符合你32G内存。设置一下开160k上下文,差不多可以跑20t/s
--【贰】--:
35b的模型,显卡能放下去吗?
--【叁】--:
qwen3.5 35b a3b.
显存小于12g基本上只有选择qwen的可能
--【肆】--:
3060ti 8G 能玩甚麼模型?
--【伍】--:
哈哈哈,那些都玩腻了,就想自己跑跑看,熟悉一下这个流程。
--【陆】--:
感谢佬的耐心解答~
--【柒】--:
你要是能够忍受几秒蹦一个字的话选择还挺多的
--【捌】--:
3b不是激活参数吗?推理过程中不会变吗?
--【玖】--:
不如趁机先白嫖小米的模型,先给你角色板鸭功能实现了
--【拾】--:
顺便在此帖下问下
3060 12G能跑什么好用的模型
--【拾壹】--:
nanbeige4.1-3b i1
--【拾贰】--:
和4060基本一样
3060甚至高贵点,因为多的4g显存跑画图和视频生成挺舒服的
--【拾叁】--:
qwen3.5 35b a3b是moe模型,q4版本可以把主要的3b载到显存中,剩下的放到内存里就行了,速度在20tok/s以上,是当前的最优方案
--【拾肆】--:
佬那角色扮演适合啥
--【拾伍】--:
qwen3.5-35B-A3B
--【拾陆】--:
语音模型。
--【拾柒】--:
推理过程中,这3b变化不会特别大,实际上卸载到内存里也不会有太大影响
--【拾捌】--:
其实代际只有算力差,显存一样能玩的是相同的
llm就qwen,画图可以玩noob,zit,tts可以玩voxcpm和indextts2
--【拾玖】--:
qwen 3.5 9B,真的很不错
我主页有自己做的一些调整好的部署包 真正可用的小模型来了!Qwen3.5-9B 懒人本地部署包,7个工具开箱即用
正好有个闲置的笔记本,4060的,32G 内存,想问问有什么不算太傻的,出字还挺快的模型能跑,想用来玩轻度的角色扮演,当然我知道 Gemini API、Claude API 更好用,只是弄弄玩,闲的
网友解答:--【壹】--:
qwen3.5 35B A3B是唯一真神。正好符合你32G内存。设置一下开160k上下文,差不多可以跑20t/s
--【贰】--:
35b的模型,显卡能放下去吗?
--【叁】--:
qwen3.5 35b a3b.
显存小于12g基本上只有选择qwen的可能
--【肆】--:
3060ti 8G 能玩甚麼模型?
--【伍】--:
哈哈哈,那些都玩腻了,就想自己跑跑看,熟悉一下这个流程。
--【陆】--:
感谢佬的耐心解答~
--【柒】--:
你要是能够忍受几秒蹦一个字的话选择还挺多的
--【捌】--:
3b不是激活参数吗?推理过程中不会变吗?
--【玖】--:
不如趁机先白嫖小米的模型,先给你角色板鸭功能实现了
--【拾】--:
顺便在此帖下问下
3060 12G能跑什么好用的模型
--【拾壹】--:
nanbeige4.1-3b i1
--【拾贰】--:
和4060基本一样
3060甚至高贵点,因为多的4g显存跑画图和视频生成挺舒服的
--【拾叁】--:
qwen3.5 35b a3b是moe模型,q4版本可以把主要的3b载到显存中,剩下的放到内存里就行了,速度在20tok/s以上,是当前的最优方案
--【拾肆】--:
佬那角色扮演适合啥
--【拾伍】--:
qwen3.5-35B-A3B
--【拾陆】--:
语音模型。
--【拾柒】--:
推理过程中,这3b变化不会特别大,实际上卸载到内存里也不会有太大影响
--【拾捌】--:
其实代际只有算力差,显存一样能玩的是相同的
llm就qwen,画图可以玩noob,zit,tts可以玩voxcpm和indextts2
--【拾玖】--:
qwen 3.5 9B,真的很不错
我主页有自己做的一些调整好的部署包 真正可用的小模型来了!Qwen3.5-9B 懒人本地部署包,7个工具开箱即用

