openclaw调用原生工具使用中转站的gpt-image-2
- 内容介绍
- 文章标签
- 相关推荐
这俩天在折腾龙虾的图生文,但是一直没法调用openclaw的原生工具,今天搞了半天搞好了,总结一下主要是以下几个点:
- ~/.openclaw/agents/main/agent/models.json — openai provider 里声明 gpt-image-2 模型
- openclaw.json 的 models.providers.openai — 设置 baseUrl 指向中转站(生图工具从这里读地址)
- openclaw.json 的 agents.defaults.imageGenerationModel.primary — 设为 openai/gpt-image-2
- ~/.openclaw/.env — 设置 OPENAI_API_KEY(生图工具从环境变量检测认证状态)
四个缺一不可
希望可以帮到各位佬生图
网友解答:--【壹】--:
是的,不知道后面会不会优化优化。我每次都收到2张
--【贰】--:
佬,这是CPA反代出来的吗,龙虾老失忆用起来贼蛋汤
--【叁】--:
CPA 不支持embedding 好像,你搞了吗embedding
--【肆】--:
现在还有必要用openclaw吗,openclaw问多了就重复回复一个答案,就像死机了一样,我已经有想法放弃openclaw,直接使用tg来控制codex-cli了
--【伍】--:
你说得可能是对的,我用的默认的,等会我试试
--【陆】--: McD:
200000
我一查发现,200k tokens,它不傻谁傻,…
--【柒】--:
有没有办法输入图片,然后输出图片?我试了下生图是可以的,但是输入图片应该还是不能理解。
--【捌】--:
大佬,你的baseurl是公网地址吗,我是本地部署的sub2api,使用的是170.0.0.1地址,但会碰到SSRF防护,
开了models.providers.openai.request.allowPrivateNetwork: true,
但是还是报Blocked hostname or private/internal/special-use IP address,
一直无法突破
--【玖】--:
那不应该啊,是不是上下文窗口没拉大一点?
--【拾】--:
你把主模型声明image,就可以识图了,你让他帮你搞提示词应该就算一种解决方法
--【拾壹】--:
千问的那个可以用硅基流动调用,gemini那个ai studio有免费的额度
--【拾贰】--:
没啊,还算挺正常的,现在是4.21版本。用的gpt或者kiro反代的cc
--【拾叁】--:
失忆的话你去让它帮你配置记忆功能的embedding模型,千问有个8b的,或者gemini-embedding-2-preview
--【拾肆】--:
不是哎,直接接的中转站,先反代出去再接回来?
--【拾伍】--:
搞了,好像还是网页版的好用一些,tg里面一张图给我发了三次。
--【拾陆】--:
你就没有出现死机一样的重复回复?这你能忍?
--【拾柒】--:
直接设置成200000,不然上下文太小了应该
--【拾捌】--:
这俩天折腾半天基本全折腾好了,什么tts,生图和记忆embedding,还有那个什么dreaming。总算舒服点了
--【拾玖】--:
我的一直是gpt5.4,正在思考不用openclaw了,就是循环死机不能忍
这俩天在折腾龙虾的图生文,但是一直没法调用openclaw的原生工具,今天搞了半天搞好了,总结一下主要是以下几个点:
- ~/.openclaw/agents/main/agent/models.json — openai provider 里声明 gpt-image-2 模型
- openclaw.json 的 models.providers.openai — 设置 baseUrl 指向中转站(生图工具从这里读地址)
- openclaw.json 的 agents.defaults.imageGenerationModel.primary — 设为 openai/gpt-image-2
- ~/.openclaw/.env — 设置 OPENAI_API_KEY(生图工具从环境变量检测认证状态)
四个缺一不可
希望可以帮到各位佬生图
网友解答:--【壹】--:
是的,不知道后面会不会优化优化。我每次都收到2张
--【贰】--:
佬,这是CPA反代出来的吗,龙虾老失忆用起来贼蛋汤
--【叁】--:
CPA 不支持embedding 好像,你搞了吗embedding
--【肆】--:
现在还有必要用openclaw吗,openclaw问多了就重复回复一个答案,就像死机了一样,我已经有想法放弃openclaw,直接使用tg来控制codex-cli了
--【伍】--:
你说得可能是对的,我用的默认的,等会我试试
--【陆】--: McD:
200000
我一查发现,200k tokens,它不傻谁傻,…
--【柒】--:
有没有办法输入图片,然后输出图片?我试了下生图是可以的,但是输入图片应该还是不能理解。
--【捌】--:
大佬,你的baseurl是公网地址吗,我是本地部署的sub2api,使用的是170.0.0.1地址,但会碰到SSRF防护,
开了models.providers.openai.request.allowPrivateNetwork: true,
但是还是报Blocked hostname or private/internal/special-use IP address,
一直无法突破
--【玖】--:
那不应该啊,是不是上下文窗口没拉大一点?
--【拾】--:
你把主模型声明image,就可以识图了,你让他帮你搞提示词应该就算一种解决方法
--【拾壹】--:
千问的那个可以用硅基流动调用,gemini那个ai studio有免费的额度
--【拾贰】--:
没啊,还算挺正常的,现在是4.21版本。用的gpt或者kiro反代的cc
--【拾叁】--:
失忆的话你去让它帮你配置记忆功能的embedding模型,千问有个8b的,或者gemini-embedding-2-preview
--【拾肆】--:
不是哎,直接接的中转站,先反代出去再接回来?
--【拾伍】--:
搞了,好像还是网页版的好用一些,tg里面一张图给我发了三次。
--【拾陆】--:
你就没有出现死机一样的重复回复?这你能忍?
--【拾柒】--:
直接设置成200000,不然上下文太小了应该
--【拾捌】--:
这俩天折腾半天基本全折腾好了,什么tts,生图和记忆embedding,还有那个什么dreaming。总算舒服点了
--【拾玖】--:
我的一直是gpt5.4,正在思考不用openclaw了,就是循环死机不能忍

