在天翼云、Ollama cloud使用GLM 5.1的真实体验 + 项目吐槽 + key分享
- 内容介绍
- 文章标签
- 相关推荐
关于项目
项目使用rust后端 + react前端,总代码量超过10w,gpt使用codex,其他模型是cc。各个模型使用大约是qwen 3.5(0.1%),gpt 5.4(95%),opus 4.6(搭了个前端框架,不然gpt写不来),glm-5.1(剩余)
模型速度
天翼云
4.7日
上午上车,非常流畅,可以算得上是指哪打哪,但是lite档次是完全不够用的,晚上买了个pro,制定计划后执行,然后美美睡觉,第二天验收。
4.8日
到10点后开始出现API Error: 400 DOWN_STREAM_MODEL_ERROR,此时我用ccs把一些模型给路由了(4.5air),还算是能用。到11点又不行了,把子代理关了还是能跑的,速度也还过得去。到下午2点彻底不能用了
image658×598 37.3 KB
到下午6点,突然所有400错误都没了,速度也飞快,美美蹬一晚
4.9日
4.9日更是离谱了,从10点开始完全不可用(此时根据站内佬的建议改回只用5.1),到晚上10点还是不可用,10点后让他做计划,第二天醒来验收,目前来看没什么问题
Ollama Cloud
4.9日
因为天翼云完全不可用,所以开始找其他方案,包括opencode go、ollama cloud,go的化根据站内佬的评价,说是用量完全不够,而且有量化嫌疑,并且没有试用就没有选择了。然后尝试了一下Ollama Cloud,由于是白天,速度虽然没有天翼云4.7号那么快,但是使用起来还是还算能接受吧(其实还是挺慢的),考虑到买莱就算用不了还可以跑跑其他很多模型,于是购买了pro。到了下午4点的时候,估计老美那边醒了,那速度慢的跟蜗牛一样。
此外,ollama cloud不会显示缓存,额度很离谱,按他的蜗牛速度的速度的话一周是够用的 。
关于项目
项目使用rust后端 + react前端,总代码量超过10w,gpt使用codex,其他模型是cc。各个模型使用大约是qwen 3.5(0.1%),gpt 5.4(95%),opus 4.6(搭了个前端框架,不然gpt写不来),glm-5.1(剩余)
模型速度
天翼云
4.7日
上午上车,非常流畅,可以算得上是指哪打哪,但是lite档次是完全不够用的,晚上买了个pro,制定计划后执行,然后美美睡觉,第二天验收。
4.8日
到10点后开始出现API Error: 400 DOWN_STREAM_MODEL_ERROR,此时我用ccs把一些模型给路由了(4.5air),还算是能用。到11点又不行了,把子代理关了还是能跑的,速度也还过得去。到下午2点彻底不能用了
image658×598 37.3 KB
到下午6点,突然所有400错误都没了,速度也飞快,美美蹬一晚
4.9日
4.9日更是离谱了,从10点开始完全不可用(此时根据站内佬的建议改回只用5.1),到晚上10点还是不可用,10点后让他做计划,第二天醒来验收,目前来看没什么问题
Ollama Cloud
4.9日
因为天翼云完全不可用,所以开始找其他方案,包括opencode go、ollama cloud,go的化根据站内佬的评价,说是用量完全不够,而且有量化嫌疑,并且没有试用就没有选择了。然后尝试了一下Ollama Cloud,由于是白天,速度虽然没有天翼云4.7号那么快,但是使用起来还是还算能接受吧(其实还是挺慢的),考虑到买莱就算用不了还可以跑跑其他很多模型,于是购买了pro。到了下午4点的时候,估计老美那边醒了,那速度慢的跟蜗牛一样。
此外,ollama cloud不会显示缓存,额度很离谱,按他的蜗牛速度的速度的话一周是够用的 。

