【openclaw求助】LLM request failed: network connection error.(wsl的ubuntu系统部署openclaw+windows本地ollama模型)

2026-04-11 11:311阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

向大佬们求助,情况如下:
报错内容:
image2105×180 25.9 KB

龙虾部分:使用wsl的ubuntu系统部署openclaw
模型部分:windows本地ollama托管

现在在wsl中: curl http://127.0.0.1:11434 Ollama is running 但是用openclaw tui展示如下: run error: LLM request failed: network connection error.

openclaw配置文件模型部分如下:

"models": { "mode": "merge", "providers": { "ollama": { "baseUrl": "http://127.0.0.1:11434", "api": "ollama", "apiKey": "OLLAMA_API_KEY", 网友解答:


--【壹】--:

openclaw现在在wsl中:
curl http://127.0.0.1:11434
Ollama is running

是通的


--【贰】--:

ollama可以走openai接口调用,你试试吧


--【叁】--:

是不是的问题?我猜的。

借贴问一下 微信用openclaw老需要approvel怎么办


--【肆】--:

11434后面加上/v1


--【伍】--:

感觉可能是梯子的问题


--【陆】--:

都是本地部署,单独调试ollama可以连通云模型,没有挂梯子


--【柒】--:

我试试,如果是openai接口那就要加/v1了


--【捌】--:

如果openclaw在docker里面建议把 baseUrl 改成 http://host.docker.internal:11434,wsl 到宿主的网络用这个地址试试。
实在不行,把api改成openai,baseurl加一个’/v1’

问题描述:

向大佬们求助,情况如下:
报错内容:
image2105×180 25.9 KB

龙虾部分:使用wsl的ubuntu系统部署openclaw
模型部分:windows本地ollama托管

现在在wsl中: curl http://127.0.0.1:11434 Ollama is running 但是用openclaw tui展示如下: run error: LLM request failed: network connection error.

openclaw配置文件模型部分如下:

"models": { "mode": "merge", "providers": { "ollama": { "baseUrl": "http://127.0.0.1:11434", "api": "ollama", "apiKey": "OLLAMA_API_KEY", 网友解答:


--【壹】--:

openclaw现在在wsl中:
curl http://127.0.0.1:11434
Ollama is running

是通的


--【贰】--:

ollama可以走openai接口调用,你试试吧


--【叁】--:

是不是的问题?我猜的。

借贴问一下 微信用openclaw老需要approvel怎么办


--【肆】--:

11434后面加上/v1


--【伍】--:

感觉可能是梯子的问题


--【陆】--:

都是本地部署,单独调试ollama可以连通云模型,没有挂梯子


--【柒】--:

我试试,如果是openai接口那就要加/v1了


--【捌】--:

如果openclaw在docker里面建议把 baseUrl 改成 http://host.docker.internal:11434,wsl 到宿主的网络用这个地址试试。
实在不行,把api改成openai,baseurl加一个’/v1’