想在本地部署一个模型,辅助写小说
- 内容介绍
- 文章标签
- 相关推荐
image478×256 43.8 KB
我的电脑配置如图,一直有这个想法,最近也在研究这些本地部署,但是不知道哪个国产大模型更好以及我的电脑带的动哪个级别的模型,想问问大家,求助求助
--【壹】--:
想的就是部署好本地模型,用opencode调用来写这样
--【贰】--:
硬件部署是一方面,投喂什么资料训练模型也很重要。
--【叁】--:
佬打算怎么辅助?想象不到怎么辅助。
本地部署的话,用ollama最方便。比如qwen3.5
ollama run qwen3.5:4b
--【肆】--:
Qwen3.5-9B-Claude-4.6-Opus-Reasoning
--【伍】--:
别折腾了,我本机显卡和你一样(7950x + 4080S AD + 64G内存),然后本地跑14B的能流畅,27B的输出就缓慢了(thinking更是想都别想),写小说前言不搭后语的,纯浪费时间,更别提文章润色和逻辑分析之类的了。
不如直接接入公益站,怎么都比本地强。
你要是硬上的话,可以去 hugging face 上淘中文相关的蒸馏模型。
我年前用的几个,仅参考(现在肯定有更好的):
DS: DeepSeek-R1-Distill-Qwen-14B-Q5_K_M、DeepSeek-R1-Distill-Qwen-32B-Q4_K_M.gguf
QWen:Qwen2.5-14B-Instruct-Q5_K_M.gguf、Qwen2.5-32B-Instruct-Q4_K_M_2.gguf。
部署的话,ollama、LMStudio都行,差别真不大。
image478×256 43.8 KB
我的电脑配置如图,一直有这个想法,最近也在研究这些本地部署,但是不知道哪个国产大模型更好以及我的电脑带的动哪个级别的模型,想问问大家,求助求助
--【壹】--:
想的就是部署好本地模型,用opencode调用来写这样
--【贰】--:
硬件部署是一方面,投喂什么资料训练模型也很重要。
--【叁】--:
佬打算怎么辅助?想象不到怎么辅助。
本地部署的话,用ollama最方便。比如qwen3.5
ollama run qwen3.5:4b
--【肆】--:
Qwen3.5-9B-Claude-4.6-Opus-Reasoning
--【伍】--:
别折腾了,我本机显卡和你一样(7950x + 4080S AD + 64G内存),然后本地跑14B的能流畅,27B的输出就缓慢了(thinking更是想都别想),写小说前言不搭后语的,纯浪费时间,更别提文章润色和逻辑分析之类的了。
不如直接接入公益站,怎么都比本地强。
你要是硬上的话,可以去 hugging face 上淘中文相关的蒸馏模型。
我年前用的几个,仅参考(现在肯定有更好的):
DS: DeepSeek-R1-Distill-Qwen-14B-Q5_K_M、DeepSeek-R1-Distill-Qwen-32B-Q4_K_M.gguf
QWen:Qwen2.5-14B-Instruct-Q5_K_M.gguf、Qwen2.5-32B-Instruct-Q4_K_M_2.gguf。
部署的话,ollama、LMStudio都行,差别真不大。

