GLM5.1 开源了 ollama已经有云模型了

2026-04-11 10:330阅读0评论SEO基础
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

佬们怎么看 GLM5.1 开源了 ollama已经有云模型了

image1441×616 48.3 KB

网友解答:
--【壹】--:

Ollama Cloud还是有点实力的,就是Cloud好像不是用的Ollama推理,仅仅是模拟接口输出的


--【贰】--:

成本过于昂贵了,感觉有个几百w,显卡+硬盘


--【叁】--:

要是想部署这个需要多少显存 ?


--【肆】--:

本地部署这个glm5.1要什么配置才够上的


--【伍】--:

ollama的云服务调用的api,限速是多少?我没用过


--【陆】--:

huggingface也有了,资本快发力让我用上更便宜更稳定的glm


--【柒】--:

别家也可以部署 5.1, 然后推出 coding plan


--【捌】--:

不量化的话,本地很难实现的吧。毕竟不是小模型


--【玖】--:

不确定的是,ollama用的4bit量化版本还是满血版本?

因为速度很快,很难让人不怀疑。。。


--【拾】--:

准备搞几个,1个ip下面放几个apikey比较安全?


--【拾壹】--:

估计要8张H200 加最少2tb硬盘把。


--【拾贰】--:

好像是 每 5 小时 session 限额:50W token
每 7 天 weekly 限额:100W token


--【拾叁】--:

ollama这也太快了吧,每次都最先上。

阅读全文
标签:纯水
问题描述:

佬们怎么看 GLM5.1 开源了 ollama已经有云模型了

image1441×616 48.3 KB

网友解答:
--【壹】--:

Ollama Cloud还是有点实力的,就是Cloud好像不是用的Ollama推理,仅仅是模拟接口输出的


--【贰】--:

成本过于昂贵了,感觉有个几百w,显卡+硬盘


--【叁】--:

要是想部署这个需要多少显存 ?


--【肆】--:

本地部署这个glm5.1要什么配置才够上的


--【伍】--:

ollama的云服务调用的api,限速是多少?我没用过


--【陆】--:

huggingface也有了,资本快发力让我用上更便宜更稳定的glm


--【柒】--:

别家也可以部署 5.1, 然后推出 coding plan


--【捌】--:

不量化的话,本地很难实现的吧。毕竟不是小模型


--【玖】--:

不确定的是,ollama用的4bit量化版本还是满血版本?

因为速度很快,很难让人不怀疑。。。


--【拾】--:

准备搞几个,1个ip下面放几个apikey比较安全?


--【拾壹】--:

估计要8张H200 加最少2tb硬盘把。


--【拾贰】--:

好像是 每 5 小时 session 限额:50W token
每 7 天 weekly 限额:100W token


--【拾叁】--:

ollama这也太快了吧,每次都最先上。

阅读全文
标签:纯水