求佬解惑,昨晚折腾到3点,测试了几轮,最终公司AI模型选的wenQwen3.5-27B-GPTQ-Int4

2026-04-11 11:560阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

今天尝试了基于RAG架构的自研POC ,评估了下,全流程自研(含向量库维护、数据清洗)的工作量不小 。然后看了下成熟的开源解决方案如maxkb, 虽是开源,但是有很多限制,需要付费才能解锁. 佬们有什么好的思路吗.

网友解答:
--【壹】--:

感觉可以吧这个模型


--【贰】--:

收到, 这个不错.


--【叁】--:

佬御三家是指哪个啊,我去了解下


--【肆】--:

上网搜maxkb解除限制,有个大佬写了博客,可以用docker映射源码文件的方式,去掉官方源码中限制的部分


--【伍】--:

我在想为什么不采用同量级的qwen3.5-27B或者35B的版本,毕竟r1已经是去年的模型了,模型效果难道不如今年的新模型吗


--【陆】--:

BUG确实多,今天的使用体感不好


--【柒】--:

涉及到数据清洗可能 gemma4 比较好


--【捌】--:

花钱,也要自己清洗数据吧~这个才是最烦的,而且这个对召回的质量影响最大!
如果不是必须要求内网~可以考虑御三家,真的是不一样的东西!


--【玖】--:

哦哦,了解. 不过那还真不行. 不然公司也不会自己买ai服务器了


--【拾】--:

今天刚试了LM STUDIO最新版可以跑gemma-4


--【拾壹】--:

不知道佬是什么环境,llamacpp目前对qwen3.5支持还不错,gemma4可能要linux下的vllm才能推理


--【拾贰】--:

实际上,gemma4 出之前,qwen3 就是小模型里断档的强,qwen3.5 是断两档的强。

阅读全文
问题描述:

今天尝试了基于RAG架构的自研POC ,评估了下,全流程自研(含向量库维护、数据清洗)的工作量不小 。然后看了下成熟的开源解决方案如maxkb, 虽是开源,但是有很多限制,需要付费才能解锁. 佬们有什么好的思路吗.

网友解答:
--【壹】--:

感觉可以吧这个模型


--【贰】--:

收到, 这个不错.


--【叁】--:

佬御三家是指哪个啊,我去了解下


--【肆】--:

上网搜maxkb解除限制,有个大佬写了博客,可以用docker映射源码文件的方式,去掉官方源码中限制的部分


--【伍】--:

我在想为什么不采用同量级的qwen3.5-27B或者35B的版本,毕竟r1已经是去年的模型了,模型效果难道不如今年的新模型吗


--【陆】--:

BUG确实多,今天的使用体感不好


--【柒】--:

涉及到数据清洗可能 gemma4 比较好


--【捌】--:

花钱,也要自己清洗数据吧~这个才是最烦的,而且这个对召回的质量影响最大!
如果不是必须要求内网~可以考虑御三家,真的是不一样的东西!


--【玖】--:

哦哦,了解. 不过那还真不行. 不然公司也不会自己买ai服务器了


--【拾】--:

今天刚试了LM STUDIO最新版可以跑gemma-4


--【拾壹】--:

不知道佬是什么环境,llamacpp目前对qwen3.5支持还不错,gemma4可能要linux下的vllm才能推理


--【拾贰】--:

实际上,gemma4 出之前,qwen3 就是小模型里断档的强,qwen3.5 是断两档的强。

阅读全文