openclaw生图
- 内容介绍
- 文章标签
- 相关推荐
问一下大佬们 怎么配置能让openclaw调用大模型生成图片呢
我让他画一张图 它用python给我画出来
用codex帮我改了下 说要配置生图模型 配置了grok-imagine-1.0-fast之后还是不行
找到解决方案了 如果有claude模型的话直接用这个skill nanobanana
如果有其他模型的话就直接让codex参考nanobanana抄一个出来就可以用了
image1122×730 153 KB
--【壹】--:
崩了就让codex修复 我都是这么搞的
--【贰】--:
这个claude skill nanobanana 还是需要谷歌api的吧?
--【叁】--:
我试下 谢谢佬
--【肆】--:
请问下需要特定的模型吗
--【伍】--:
是的,让他每次接收生图的时候执行生图的skill,里面包含生图模型调用的api,它自己会调用的
--【陆】--:
最简单的就是用nano banana呗,我目前是把comfyui的接口写成skill让他调用
--【柒】--:
直接让openclaw自己写
--【捌】--:
配置一个skill 让他写一个脚本 调用grok生图
--【玖】--:
我打算让openclaw自己抄一个nano banana 用grok模型
--【拾】--:
配成skill,每次生图让他调用api
--【拾壹】--:
我记得后面会让你安装依赖 依赖安装完了就是配置key 配置key的时候就有nanobanana的key可以填 不过这个要google ai studio的key 之前那个开发者福利送的10刀的可以用
--【拾贰】--:
试过了, 装了clawdoc技能, 让它自己写配置, 写出来的配置经常不符合要求把gateway搞崩
--【拾叁】--:
openclaw config 里的skills里有nano banana
--【拾肆】--:
请问是调用外部的api吗 我想直接用模型的能力生图
--【拾伍】--:
我现在用的是 ComfyUI Skills 这个方案,直接在本地生涩涩图啥的,很灵活很自由。
ComfyUI Skills为你的小龙虾打造专属的图像/视频生成工具_哔哩哔哩_bilibili
最近受够了满屏连线的 ComfyUI,撸了个新轮子解围。平时攒了一堆精细的 workflow,但复用率太低,每次生图还得重新开节点对齐参数,心智负担很重。结合最近爆火的 OpenClaw,顺手写了这个中间件:ComfyUI Skills for OpenClaw。功能点:做减法: 通过自带的前端面板,你可以把底层节点锁死,只把核心变量暴露给 AI。收敛参数权限,防止模型乱调报错。聊天即生图: 打通, 视频播放量 13269、弹幕量 2、点赞数 569、投硬币枚数 374、收藏人数...
--【拾陆】--: 【白嫖指南】无需 API Key即可画图!我把 Gemini 网页版封装成了标准 MCP * Skill 资源荟萃
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 否(帖子内容无AIGC,纯手打) 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使…
看看这个, 可用。
其实还可以本地部署开源生图模型,看你配置了。
--【拾柒】--:
哪位能贴一个nano banana的openclaw配置? 我试了很久都没成功.
--【拾捌】--:
image334×307 28.7 KB
这样的
问一下大佬们 怎么配置能让openclaw调用大模型生成图片呢
我让他画一张图 它用python给我画出来
用codex帮我改了下 说要配置生图模型 配置了grok-imagine-1.0-fast之后还是不行
找到解决方案了 如果有claude模型的话直接用这个skill nanobanana
如果有其他模型的话就直接让codex参考nanobanana抄一个出来就可以用了
image1122×730 153 KB
--【壹】--:
崩了就让codex修复 我都是这么搞的
--【贰】--:
这个claude skill nanobanana 还是需要谷歌api的吧?
--【叁】--:
我试下 谢谢佬
--【肆】--:
请问下需要特定的模型吗
--【伍】--:
是的,让他每次接收生图的时候执行生图的skill,里面包含生图模型调用的api,它自己会调用的
--【陆】--:
最简单的就是用nano banana呗,我目前是把comfyui的接口写成skill让他调用
--【柒】--:
直接让openclaw自己写
--【捌】--:
配置一个skill 让他写一个脚本 调用grok生图
--【玖】--:
我打算让openclaw自己抄一个nano banana 用grok模型
--【拾】--:
配成skill,每次生图让他调用api
--【拾壹】--:
我记得后面会让你安装依赖 依赖安装完了就是配置key 配置key的时候就有nanobanana的key可以填 不过这个要google ai studio的key 之前那个开发者福利送的10刀的可以用
--【拾贰】--:
试过了, 装了clawdoc技能, 让它自己写配置, 写出来的配置经常不符合要求把gateway搞崩
--【拾叁】--:
openclaw config 里的skills里有nano banana
--【拾肆】--:
请问是调用外部的api吗 我想直接用模型的能力生图
--【拾伍】--:
我现在用的是 ComfyUI Skills 这个方案,直接在本地生涩涩图啥的,很灵活很自由。
ComfyUI Skills为你的小龙虾打造专属的图像/视频生成工具_哔哩哔哩_bilibili
最近受够了满屏连线的 ComfyUI,撸了个新轮子解围。平时攒了一堆精细的 workflow,但复用率太低,每次生图还得重新开节点对齐参数,心智负担很重。结合最近爆火的 OpenClaw,顺手写了这个中间件:ComfyUI Skills for OpenClaw。功能点:做减法: 通过自带的前端面板,你可以把底层节点锁死,只把核心变量暴露给 AI。收敛参数权限,防止模型乱调报错。聊天即生图: 打通, 视频播放量 13269、弹幕量 2、点赞数 569、投硬币枚数 374、收藏人数...
--【拾陆】--: 【白嫖指南】无需 API Key即可画图!我把 Gemini 网页版封装成了标准 MCP * Skill 资源荟萃
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 否(帖子内容无AIGC,纯手打) 以上选择我承诺是永久有效的,接受社区和佬友监督: 是 以下为项目介绍正文内容,AI生成、润色内容已使…
看看这个, 可用。
其实还可以本地部署开源生图模型,看你配置了。
--【拾柒】--:
哪位能贴一个nano banana的openclaw配置? 我试了很久都没成功.
--【拾捌】--:
image334×307 28.7 KB
这样的

