【openclaw求助】LLM request failed: network connection error.(wsl的ubuntu系统部署openclaw+windows本地ollama模型)

2026-04-11 11:310阅读0评论SEO资源
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

向大佬们求助,情况如下:
报错内容:
image2105×180 25.9 KB

龙虾部分:使用wsl的ubuntu系统部署openclaw
模型部分:windows本地ollama托管

现在在wsl中: curl http://127.0.0.1:11434 Ollama is running 但是用openclaw tui展示如下: run error: LLM request failed: network connection error.

openclaw配置文件模型部分如下:

"models": { "mode": "merge", "providers": { "ollama": { "baseUrl": "http://127.0.0.1:11434", "api": "ollama", "apiKey": "OLLAMA_API_KEY", 网友解答:


--【壹】--:

openclaw现在在wsl中:
curl http://127.0.0.1:11434
Ollama is running

是通的


--【贰】--:

ollama可以走openai接口调用,你试试吧


--【叁】--:

是不是的问题?我猜的。

阅读全文
问题描述:

向大佬们求助,情况如下:
报错内容:
image2105×180 25.9 KB

龙虾部分:使用wsl的ubuntu系统部署openclaw
模型部分:windows本地ollama托管

现在在wsl中: curl http://127.0.0.1:11434 Ollama is running 但是用openclaw tui展示如下: run error: LLM request failed: network connection error.

openclaw配置文件模型部分如下:

"models": { "mode": "merge", "providers": { "ollama": { "baseUrl": "http://127.0.0.1:11434", "api": "ollama", "apiKey": "OLLAMA_API_KEY", 网友解答:


--【壹】--:

openclaw现在在wsl中:
curl http://127.0.0.1:11434
Ollama is running

是通的


--【贰】--:

ollama可以走openai接口调用,你试试吧


--【叁】--:

是不是的问题?我猜的。

阅读全文