佬们,本地部署了一个Qwen3.5-9B-MLX-4bit模型可以怎么玩呀
- 内容介绍
- 文章标签
- 相关推荐
问题描述:
--【壹】--:
--【贰】--:
--【叁】--: qwen 3.6 plus很适合openclaw做自动化任务 搞七捻三
--【肆】--:
--【伍】--:
vMLX
image1920×1213 143 KB
网友解答:--【壹】--:
什么配置
--【贰】--:
macbook pro m5 pro 24+1t
--【叁】--: qwen 3.6 plus很适合openclaw做自动化任务 搞七捻三
我把qwen cli的coder-model导入openclaw,速度和成功率都不错 免费1000次/天,1000K上下文 速度算是国内模型中最快的了,120 tok/s [image] 浏览器自动化用起来比自己操作浏览器快,比GLM快多了 大部分自动化任务不需要很强的模型,所以用这种零成本的模型就很好了
参考墨子佬
--【肆】--:
同问,蹲个答案
--【伍】--:
推荐vMXL工具,免费的,对于Mac支持比较友好,可以去看一下官网的介绍
vMLX — Fastest Local AI for Mac | Built-in Agentic Coding Tools
The most complete MLX engine for Mac — 224x faster than LM Studio. Anthropic Messages API + OpenAI-compatible endpoints. The only MLX engine with KV cache quantization (q4/q8), hybrid SSM/Mamba (Nemotron-H, Jamba), speculative decoding, and 20+...
问题描述:
--【壹】--:
--【贰】--:
--【叁】--: qwen 3.6 plus很适合openclaw做自动化任务 搞七捻三
--【肆】--:
--【伍】--:
vMLX
image1920×1213 143 KB
网友解答:--【壹】--:
什么配置
--【贰】--:
macbook pro m5 pro 24+1t
--【叁】--: qwen 3.6 plus很适合openclaw做自动化任务 搞七捻三
我把qwen cli的coder-model导入openclaw,速度和成功率都不错 免费1000次/天,1000K上下文 速度算是国内模型中最快的了,120 tok/s [image] 浏览器自动化用起来比自己操作浏览器快,比GLM快多了 大部分自动化任务不需要很强的模型,所以用这种零成本的模型就很好了
参考墨子佬
--【肆】--:
同问,蹲个答案
--【伍】--:
推荐vMXL工具,免费的,对于Mac支持比较友好,可以去看一下官网的介绍
vMLX — Fastest Local AI for Mac | Built-in Agentic Coding Tools
The most complete MLX engine for Mac — 224x faster than LM Studio. Anthropic Messages API + OpenAI-compatible endpoints. The only MLX engine with KV cache quantization (q4/q8), hybrid SSM/Mamba (Nemotron-H, Jamba), speculative decoding, and 20+...

