GLM5.1 开源了 ollama已经有云模型了
- 内容介绍
- 文章标签
- 相关推荐
佬们怎么看 GLM5.1 开源了 ollama已经有云模型了
image1441×616 48.3 KB
网友解答:--【壹】--:
Ollama Cloud还是有点实力的,就是Cloud好像不是用的Ollama推理,仅仅是模拟接口输出的
--【贰】--:
成本过于昂贵了,感觉有个几百w,显卡+硬盘
--【叁】--:
要是想部署这个需要多少显存 ?
--【肆】--:
本地部署这个glm5.1要什么配置才够上的
--【伍】--:
ollama的云服务调用的api,限速是多少?我没用过
--【陆】--:
huggingface也有了,资本快发力让我用上更便宜更稳定的glm
--【柒】--:
别家也可以部署 5.1, 然后推出 coding plan
--【捌】--:
不量化的话,本地很难实现的吧。毕竟不是小模型
--【玖】--:
不确定的是,ollama用的4bit量化版本还是满血版本?
因为速度很快,很难让人不怀疑。。。
--【拾】--:
准备搞几个,1个ip下面放几个apikey比较安全?
--【拾壹】--:
估计要8张H200 加最少2tb硬盘把。
--【拾贰】--:
好像是 每 5 小时 session 限额:50W token
每 7 天 weekly 限额:100W token
--【拾叁】--:
ollama这也太快了吧,每次都最先上。
佬们怎么看 GLM5.1 开源了 ollama已经有云模型了
image1441×616 48.3 KB
网友解答:--【壹】--:
Ollama Cloud还是有点实力的,就是Cloud好像不是用的Ollama推理,仅仅是模拟接口输出的
--【贰】--:
成本过于昂贵了,感觉有个几百w,显卡+硬盘
--【叁】--:
要是想部署这个需要多少显存 ?
--【肆】--:
本地部署这个glm5.1要什么配置才够上的
--【伍】--:
ollama的云服务调用的api,限速是多少?我没用过
--【陆】--:
huggingface也有了,资本快发力让我用上更便宜更稳定的glm
--【柒】--:
别家也可以部署 5.1, 然后推出 coding plan
--【捌】--:
不量化的话,本地很难实现的吧。毕竟不是小模型
--【玖】--:
不确定的是,ollama用的4bit量化版本还是满血版本?
因为速度很快,很难让人不怀疑。。。
--【拾】--:
准备搞几个,1个ip下面放几个apikey比较安全?
--【拾壹】--:
估计要8张H200 加最少2tb硬盘把。
--【拾贰】--:
好像是 每 5 小时 session 限额:50W token
每 7 天 weekly 限额:100W token
--【拾叁】--:
ollama这也太快了吧,每次都最先上。

