求佬解惑,昨晚折腾到3点,测试了几轮,最终公司AI模型选的wenQwen3.5-27B-GPTQ-Int4
- 内容介绍
- 文章标签
- 相关推荐
今天尝试了基于RAG架构的自研POC ,评估了下,全流程自研(含向量库维护、数据清洗)的工作量不小 。然后看了下成熟的开源解决方案如maxkb, 虽是开源,但是有很多限制,需要付费才能解锁. 佬们有什么好的思路吗.
网友解答:--【壹】--:
感觉可以吧这个模型
--【贰】--:
收到, 这个不错.
--【叁】--:
佬御三家是指哪个啊,我去了解下
--【肆】--:
上网搜maxkb解除限制,有个大佬写了博客,可以用docker映射源码文件的方式,去掉官方源码中限制的部分
--【伍】--:
我在想为什么不采用同量级的qwen3.5-27B或者35B的版本,毕竟r1已经是去年的模型了,模型效果难道不如今年的新模型吗
--【陆】--:
BUG确实多,今天的使用体感不好
--【柒】--:
涉及到数据清洗可能 gemma4 比较好
--【捌】--:
花钱,也要自己清洗数据吧~这个才是最烦的,而且这个对召回的质量影响最大!
如果不是必须要求内网~可以考虑御三家,真的是不一样的东西!
--【玖】--:
哦哦,了解. 不过那还真不行. 不然公司也不会自己买ai服务器了
--【拾】--:
今天刚试了LM STUDIO最新版可以跑gemma-4
--【拾壹】--:
不知道佬是什么环境,llamacpp目前对qwen3.5支持还不错,gemma4可能要linux下的vllm才能推理
--【拾贰】--:
实际上,gemma4 出之前,qwen3 就是小模型里断档的强,qwen3.5 是断两档的强。
今天尝试了基于RAG架构的自研POC ,评估了下,全流程自研(含向量库维护、数据清洗)的工作量不小 。然后看了下成熟的开源解决方案如maxkb, 虽是开源,但是有很多限制,需要付费才能解锁. 佬们有什么好的思路吗.
网友解答:--【壹】--:
感觉可以吧这个模型
--【贰】--:
收到, 这个不错.
--【叁】--:
佬御三家是指哪个啊,我去了解下
--【肆】--:
上网搜maxkb解除限制,有个大佬写了博客,可以用docker映射源码文件的方式,去掉官方源码中限制的部分
--【伍】--:
我在想为什么不采用同量级的qwen3.5-27B或者35B的版本,毕竟r1已经是去年的模型了,模型效果难道不如今年的新模型吗
--【陆】--:
BUG确实多,今天的使用体感不好
--【柒】--:
涉及到数据清洗可能 gemma4 比较好
--【捌】--:
花钱,也要自己清洗数据吧~这个才是最烦的,而且这个对召回的质量影响最大!
如果不是必须要求内网~可以考虑御三家,真的是不一样的东西!
--【玖】--:
哦哦,了解. 不过那还真不行. 不然公司也不会自己买ai服务器了
--【拾】--:
今天刚试了LM STUDIO最新版可以跑gemma-4
--【拾壹】--:
不知道佬是什么环境,llamacpp目前对qwen3.5支持还不错,gemma4可能要linux下的vllm才能推理
--【拾贰】--:
实际上,gemma4 出之前,qwen3 就是小模型里断档的强,qwen3.5 是断两档的强。

