【openclaw求助】LLM request failed: network connection error.(wsl的ubuntu系统部署openclaw+windows本地ollama模型)
- 内容介绍
- 文章标签
- 相关推荐
向大佬们求助,情况如下:
报错内容:
image2105×180 25.9 KB
龙虾部分:使用wsl的ubuntu系统部署openclaw
模型部分:windows本地ollama托管
现在在wsl中:
curl http://127.0.0.1:11434
Ollama is running
但是用openclaw tui展示如下:
run error: LLM request failed: network connection error.
openclaw配置文件模型部分如下:
"models": {
"mode": "merge",
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434",
"api": "ollama",
"apiKey": "OLLAMA_API_KEY",
网友解答:
--【壹】--:
openclaw现在在wsl中:
curl http://127.0.0.1:11434
Ollama is running
是通的
--【贰】--:
ollama可以走openai接口调用,你试试吧
--【叁】--:
是不是的问题?我猜的。
借贴问一下 微信用openclaw老需要approvel怎么办
--【肆】--:
11434后面加上/v1
--【伍】--:
感觉可能是梯子的问题
--【陆】--:
都是本地部署,单独调试ollama可以连通云模型,没有挂梯子
--【柒】--:
我试试,如果是openai接口那就要加/v1了
--【捌】--:
如果openclaw在docker里面建议把 baseUrl 改成 http://host.docker.internal:11434,wsl 到宿主的网络用这个地址试试。
实在不行,把api改成openai,baseurl加一个’/v1’
向大佬们求助,情况如下:
报错内容:
image2105×180 25.9 KB
龙虾部分:使用wsl的ubuntu系统部署openclaw
模型部分:windows本地ollama托管
现在在wsl中:
curl http://127.0.0.1:11434
Ollama is running
但是用openclaw tui展示如下:
run error: LLM request failed: network connection error.
openclaw配置文件模型部分如下:
"models": {
"mode": "merge",
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434",
"api": "ollama",
"apiKey": "OLLAMA_API_KEY",
网友解答:
--【壹】--:
openclaw现在在wsl中:
curl http://127.0.0.1:11434
Ollama is running
是通的
--【贰】--:
ollama可以走openai接口调用,你试试吧
--【叁】--:
是不是的问题?我猜的。
借贴问一下 微信用openclaw老需要approvel怎么办
--【肆】--:
11434后面加上/v1
--【伍】--:
感觉可能是梯子的问题
--【陆】--:
都是本地部署,单独调试ollama可以连通云模型,没有挂梯子
--【柒】--:
我试试,如果是openai接口那就要加/v1了
--【捌】--:
如果openclaw在docker里面建议把 baseUrl 改成 http://host.docker.internal:11434,wsl 到宿主的网络用这个地址试试。
实在不行,把api改成openai,baseurl加一个’/v1’

