各位佬友们,有用过longcat的api养龙虾的吗

2026-04-11 12:011阅读0评论SEO教程
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

我在电脑上装了docker里面养了一个openclaw目前正在尝试使用longchat的api接入openclaw,一直失败,换成千问api接入就成了,佬友们知道什么原因吗。

网友解答:
--【壹】--:

你上下文稍微有个敏感词汇都报错 谁用谁知道


--【贰】--:

longcat不好用


--【叁】--:

在用龙猫,用来调试还是可以的,毕竟不用钱。。另外按照他的帮助文档配置openclaw是最简单的


--【肆】--:

学习一下提问的艺术,你这啥信息也不给,AI也答不上来啊


--【伍】--:

一点都不好用 反正之前 感觉模型还是差距很大


--【陆】--:

感谢佬友建议


--【柒】--:

ollama可以处理图片,我在NAS上面部署的ollama能调用


--【捌】--:

把它配上去,万一其它模型崩了拿它顶一顶


--【玖】--:

我的小巧思是买了100个Openrouter的key,然后在newapi用qwen3.6-plus-preview:free


--【拾】--:

longchat还不如本地ollama


--【拾壹】--:

龙猫文档不是给了教学了吗,json编辑一下不就成了
另外建议先学提问


--【拾贰】--:

感谢佬友,配上了

---- 回复的原邮件 ----

发件人 | Eilgnawnoreply@linux.do |

  • | - |
    日期 | 2026年04月03日 23:59 |
    收件人 | wuwenshuai6666@163.com |
    抄送至 | |
    主题 | [国产替代] 各位老友们,有用过longchat的api养龙虾的吗 |

有人回复了您的帖子。

| Eilgnaw 海纳百川
4 月 3 日 |

  • | - |

把它配上去,万一其它模型崩了拿它顶一顶


--【拾叁】--:

感谢各位佬友,听劝不用longcat了


--【拾肆】--:

干掉自己,干崩服务,+1 多agent全整乱了


--【拾伍】--:

你是不是json里模型的配置有问题,longcat的API文档里有配置好的模型部分的json内容,你直接把这部分粘贴到对应位置就行。
不过这个模型效果其实很差,之前我用Thinking的模型,经常让它干活,他都容易干掉自己或者干崩服务。。。

标签:快问快答
问题描述:

我在电脑上装了docker里面养了一个openclaw目前正在尝试使用longchat的api接入openclaw,一直失败,换成千问api接入就成了,佬友们知道什么原因吗。

网友解答:
--【壹】--:

你上下文稍微有个敏感词汇都报错 谁用谁知道


--【贰】--:

longcat不好用


--【叁】--:

在用龙猫,用来调试还是可以的,毕竟不用钱。。另外按照他的帮助文档配置openclaw是最简单的


--【肆】--:

学习一下提问的艺术,你这啥信息也不给,AI也答不上来啊


--【伍】--:

一点都不好用 反正之前 感觉模型还是差距很大


--【陆】--:

感谢佬友建议


--【柒】--:

ollama可以处理图片,我在NAS上面部署的ollama能调用


--【捌】--:

把它配上去,万一其它模型崩了拿它顶一顶


--【玖】--:

我的小巧思是买了100个Openrouter的key,然后在newapi用qwen3.6-plus-preview:free


--【拾】--:

longchat还不如本地ollama


--【拾壹】--:

龙猫文档不是给了教学了吗,json编辑一下不就成了
另外建议先学提问


--【拾贰】--:

感谢佬友,配上了

---- 回复的原邮件 ----

发件人 | Eilgnawnoreply@linux.do |

  • | - |
    日期 | 2026年04月03日 23:59 |
    收件人 | wuwenshuai6666@163.com |
    抄送至 | |
    主题 | [国产替代] 各位老友们,有用过longchat的api养龙虾的吗 |

有人回复了您的帖子。

| Eilgnaw 海纳百川
4 月 3 日 |

  • | - |

把它配上去,万一其它模型崩了拿它顶一顶


--【拾叁】--:

感谢各位佬友,听劝不用longcat了


--【拾肆】--:

干掉自己,干崩服务,+1 多agent全整乱了


--【拾伍】--:

你是不是json里模型的配置有问题,longcat的API文档里有配置好的模型部分的json内容,你直接把这部分粘贴到对应位置就行。
不过这个模型效果其实很差,之前我用Thinking的模型,经常让它干活,他都容易干掉自己或者干崩服务。。。

标签:快问快答