docker部署openclaw(记录一下在macmini上通过docker部署openclaw的流程和设置)
- 内容介绍
- 文章标签
- 相关推荐
PS:再发布一次,第一次貌似因为写了某个有联网模型的API厂商被视为推广了。这一次重新发布,把最近玩了之后相关的坑和推荐都补充上去了,估计往后不会再更新了(因为mac mini 已经被我卖了,24年11月首发3450买的,最近因为openclaw热火加内存暴涨,二手价格上涨又以3330卖出去了,目前全新的价格直逼4000。)谁又能知道在25年6月份的时候全新的最低价格是2500多,电子产品现在太不稳定了,如非刚需不建议再买。另外,内存涨价,现在全新的笔记本价格都到6k起步了,二手的也在上涨,人真是麻了。
文章含有下述厂商,如有可能推广的请提前告知。
- Mistral:中规中矩,最开始以OCR模型出名,可以试试
codestral-latest模型。 - Qwen.ai:推荐,使用qwen code模型很不错,缺点是单一ip会受限。
- 百度千帆:虽然百度是,但是搜索这方面给的免费额度很大方(不需要实名),除此之外很难找到官方的搜索AI聚合额度,要么就是类似brave这种,或者推荐的就是2api(z.ai和grok)。
一,Openclaw简介
1,主要介绍
image1251×904 184 KB
2,项目地址
Github项目地址:
GitHub - openclaw/openclaw: Your own personal AI assistant. Any OS. Any...
Your own personal AI assistant. Any OS. Any Platform. The lobster way. 🦞
项目官方网址:OpenClaw — Personal AI Assistant
3,相似产品对比
官方openclaw过于厚重,因此延伸出很多第三方项目,此处是相关的对比和推荐使用场景。
详情参考下述网址:
https://openclaw-forks-evaluation-report-2026.versun.me/
openclaw类项目“横评” 开发调优这几天一直在用openclaw,但是稳定性是在不敢恭维。 所以也在调查几个类claw的项目。 选定了这几个: OpenClaw / PicoClaw / NanoBot / ZeroClaw / NanoClaw / IronClaw 让codex把这几个的仓库都拉下来,直接从源码比对,写了份报告(居然不支持直接传.md文件) openclaw-family-comparison-repo…
二,Docker部署Openclaw
1,前提设置
由于openclaw官方目前没有直接的docker镜像,因此选择第三方github stars 最高的中文版本进行部署,其项目链接如下:
GitHub - 1186258278/OpenClawChineseTranslation: 🦞 OpenClaw (Clawdbot/Moltbot) 汉化版 - 开源个人 AI 助手中文版...
🦞 OpenClaw (Clawdbot/Moltbot) 汉化版 - 开源个人 AI 助手中文版 | Claude/ChatGPT LLM 接入 | WhatsApp/Telegram/Discord 多平台 | 每小时自动同步 | CLI + Dashboard 全中文 | 全流程搭建教程,以及排错指南!
作为两个都部署过的人来讲,这两个镜像的配置不同,中文版是admin目录,原版是node目录。且中文版貌似有更好的linux环境,很多缺失的可以自行安装。
目前,官方发布了docker镜像,其网址为:openclaw docker,镜像命名规则如下:
镜像命名规则:<版本或分支>[-slim][-<架构>]
main → main分支 + 标准版 + 多架构(amd64+arm64 manifest)
main-slim → main分支 + 精简版 + 多架构
main-amd64 → main分支 + 标准版 + 仅 amd64
main-arm64 → main分支 + 标准版 + 仅 arm64
main-slim-amd64 → main分支 + 精简版 + 仅 amd64
main-slim-arm64 → main分支 + 精简版 + 仅 arm64
latest / 2026.3.8 → 最新稳定版 + 多架构 (Debian 12 完整版)
slim / 2026.3.8-slim → 最新稳定版 + 精简版 + 多架构 (Debian 12 最小化版)
slim 版在运行时会额外安装 procps、hostname、curl、git、openssl 这几个工具(完整版已内置这些)。这部分两者最终是一样的。
以下大型可选功能在两个版本中默认均不内置,需要构建时显式启用:
| 可选功能 | 构建参数 | 增加体积 | 说明 |
|---|---|---|---|
| 浏览器自动化 | --build-arg OPENCLAW_INSTALL_BROWSER=1 |
~300MB | 安装 Chromium + Xvfb(Playwright),slim 版同样可启用 |
| Docker CLI(沙箱管理) | --build-arg OPENCLAW_INSTALL_DOCKER_CLI=1 |
~50MB | 安装 docker-ce-cli,agents.sandbox 功能需要此项 |
| 额外 APT 包 | --build-arg OPENCLAW_DOCKER_APT_PACKAGES="python3 wget" |
视内容而定 | 自定义安装系统包 |
国内用户强烈推荐使用 Docker Hub 镜像,拉取速度快,无需翻墙!
此处为了加快下载速度,我们可以使用 ghcr.nju.edu.cn/openclaw/openclaw:latest 代替 ghcr.io/openclaw/openclaw:latest ,其中ghcr.nju.edu.cn是南京大学官方开源镜像,详细请见:GHCR | e-Science Document
2,安装并设置Docker环境
此处mac系统推荐使用OrbStack,它相较于原版Docker Desktop不仅更加轻量,还提供了友好的界面和相关设置,进入官网直接点击下载安装即可。在第一次下载后无需注册会自动赠送指定时间的pro版本,但实际上pro和普通版本差距不大,不论是否过期都没有任何影响。
安装后,在命令行窗口也能正常使用docker命令,例如键入docker ps会自动识别。
3,安装openclaw并初始化设置
(1)前提条件:
- 确保Mac终端已连接到 Docker 环境(如果是 Docker Desktop,直接打开终端即可;如果是远程服务器,请先 SSH 登录)。
- 确保目录 /Users//Documents/docker/openclaw 存在(命令中会自动创建,但最好确认一下权限)。
- 这三个命令分别对应:初始化配置 → 设置网关模式 → 启动服务。
(2)初始化配置 (交互式)
此命令会启动一个临时容器,请您在终端中根据提示选择模型、输入 API Key 等。配置完成后容器会自动退出。
# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw
docker run --rm -it \
-v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \
ghcr.nju.edu.cn/openclaw/openclaw:latest \
openclaw onboard
请根据其中指引选择相关设置,完毕后会在指定文件夹下看到相关配置文件,其中默认模型要支持函数调用功能,不然在自动识别调用函数的时候会报错。
此处强烈推荐使用Qwen官方认证的方式,只需要在https://chat.qwen.ai/ 提前注册一个账号,然后安装并启用插件openclaw plugins enable qwen-portal-auth,进入认证openclaw models auth login --provider qwen-portal --set-default ,根据命令终端的URL将其输入浏览器,然后输入上述注册的账号密码,认证成功后切换模型openclaw models set qwen-portal/coder-model,它提供了免费层 OAuth 流程(每天 2,000 次请求,受 Qwen 速率限制约束)。对于个人轻度使用完全足够。
参考来源:Qwen - OpenClaw
(3)配置网关模式
# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw
docker run --rm -it \
-v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \
ghcr.nju.edu.cn/openclaw/openclaw:latest \
openclaw config set gateway.mode local
(4)启动服务 (后台运行)
# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw
docker run -d --name openclaw \
-p 18789:18789 \
-v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \
-e NODE_COMPILE_CACHE=/var/tmp/openclaw-compile-cache \
-e OPENCLAW_NO_RESPAWN=1 \
--restart unless-stopped \
ghcr.nju.edu.cn/openclaw/openclaw:latest \
openclaw gateway run
(5)修改网关配置
进入 /Users//Documents/docker/openclaw/openclaw.json 修改下述配置
其中allowedOrigins添加https://openclaw.orb.local 是OrbStack自动分配的,你可以将其修改为自己的实际域名地址。
然后token的<random-string>保持默认生成或者也修改为自己需要的配置
"gateway": {
"port": 18789,
"mode": "local",
"bind": "lan",
"controlUi": {
"allowedOrigins": [
"http://localhost:18789",
"http://127.0.0.1:18789",
"https://openclaw.orb.local"
],
"allowInsecureAuth": true,
"dangerouslyDisableDeviceAuth": true
},
"auth": {
"mode": "token",
"token": "<random-string>"
}
}
(6)进入网关设置
然后在OrbStack(或者Docker Desktop)中进入openclaw的docker终端(Terminal),键入openclaw dashboard,会出现下述设置提示
root@openclaw:/app# openclaw dashboard
🦞 OpenClaw 2026.3.x (xxx) — I'm basically a Swiss Army knife, but with more opinions and fewer sharp edges.
Dashboard URL: http://127.0.0.1:18789/#token=<random-string>
Copy to clipboard unavailable.
未检测到图形界面。请从你的电脑打开:
ssh -N -L 18789:127.0.0.1:18789 user@<host>
然后打开:
http://localhost:18789/
http://localhost:18789/#token=<random-string>
文档:
https://docs.openclaw.ai/gateway/remote
https://docs.openclaw.ai/web/control-ui
root@openclaw:/app#
随后在官网打开 分配域名/#token=<random-string> 即可访问
4,在docker环境配置问题
-
仅限中文版本docker中可以运行。
由于docker默认为极其精简的linux,因此很多包都没法安装,即使安装了在docker重建后也会失效,所以在每次docker重建后最好需要重新安装相关软件包,此处记录部分需要安装的。
# 安装python和curl、bash等相关包 apt-get update && apt-get install -y python3 python3-pip curl bash # 国内服务器最好设置一个官方镜像源 npm config set registry https://registry.npmmirror.com/ # 安装pnpm npm install -g pnpm # 若安装失败,使用官方脚本 curl -fsSL https://get.pnpm.io/install.sh | sh - # 查找openclaw的package.json所在目录 dirname $(readlink -f $(which openclaw))/../package.json 2>/dev/null || \ find /root ~/openclaw /usr/local/lib -name "package.json" -path "*/openclaw/package.json" 2>/dev/null | head -5 # 如若docker环境,一般位于 /app 目录下,切换并重新安装 cd /app pnpm install
原版docker容器为node用户,许多命令无法运行,且会出现权限不足问题。
三,相关配置信息
1,设置Openclaw的记忆模块
其中嵌入模型仅可指定部分服务商官方模型,不能使用第三方中转模型,因此推荐mistral渠道模型,它不限制IP,且可通过参与体验获得免费的API额度,其中推荐模型为codestral-latest。
官方网址:Frontier AI LLMs, assistants, agents, services | Mistral AI
相关命令,在openclaw的docker终端(Terminal)下运行
# 启用记忆搜索
openclaw config set agents.defaults.memorySearch.enabled true
# 设置 Provider 为 mistral
openclaw config set agents.defaults.memorySearch.provider mistral
# 也可选择其他官方模型渠道(选择其一即可)
openclaw config set agents.defaults.memorySearch.provider openai
openclaw config set agents.defaults.memorySearch.provider gemini
openclaw config set agents.defaults.memorySearch.provider mistral
openclaw config set agents.defaults.memorySearch.provider ollama
openclaw config set agents.defaults.memorySearch.provider local
# 设置嵌入模型名称 (Mistral 官方通常为 mistral-embed)
openclaw config set agents.defaults.memorySearch.model mistral-embed
# 验证模型运行情况
openclaw memory status --deep
若使用第三方渠道,可通过openai渠道,通过指定URL和API进行第三方嵌入模型设置,此处以硅基流动为例
# 启用记忆搜索
openclaw config set agents.defaults.memorySearch.enabled true
# 设置第三方嵌入 API 地址(以硅基流动为例)
openclaw config set agents.defaults.memorySearch.remote.baseUrl https://api.siliconflow.cn/v1
# 设置 API Key
openclaw config set agents.defaults.memorySearch.remote.apiKey sk-your-siliconflow-key
# 设置使用 openai 协议(硅基流动兼容 OpenAI embedding 接口)
openclaw config set agents.defaults.memorySearch.provider openai
# 验证配置
openclaw memory status --deep
openclaw doctor
openclaw status
另外,切换向量模型会由于旧索引与新向量不兼容,会导致检索结果不准确或完全失效。因此需要重建内存索引(删除旧索引文件,让系统重新同步),:
# 用官方命令强制全量重建(不用手动删文件,位于/root/.openclaw/memory/main.sqlite)
openclaw memory index --force
# 查看当前索引路径和状态(确认路径)
openclaw memory status
# 重建时显示详细进度
openclaw memory index --force --verbose
最后,有时候会显示错误loadble extension for sqlite-vec not found was the sqlite-vec-linux-arm64 package installed?,这是 ARM64 架构下的常见问题。sqlite-vec是一个原生.so 扩展,需要对应平台的二进制包,即这个npm包没有正确安装或不兼容当前 Node 版本,要么重新安装,要么加载失败不影响功能,直接禁用它
# sqlite-vec 加载失败时系统会自动降级到 JS 内存计算余弦相似度,功能完全可用,只是大规模索引时稍慢
# 直接禁用 sqlite-vec,用 JS fallback(对于一般用量完全够用)
openclaw config set agents.defaults.memorySearch.store.vector.enabled false
2,部分插件下载与配置
| 插件与安装 | 用途 | 教程链接 |
|---|---|---|
| openclaw plugins install @tencent-connect/openclaw-qqbot@latest | 接入QQ机器人 | openclaw-qqbot 非官方版本 |
| openclaw plugins install @wecom/wecom-openclaw-plugin | 接入企业微信智能机器人长连接 | OpenClaw接入企业微信智能机器人 |
| openclaw plugins install @dingtalk-real-ai/dingtalk-connector | 接入钉钉机器人 | 本地安装OpenClaw 与接入钉钉机器人 |
| npx -y https://sf3-cn.feishucdn.com/obj/open-platform-opendoc/879b06f872058309ef70f49bcd38a71f_Pr8pNIJ9J9.tgz install | 接入飞书机器人(请以官方URL为准) | OpenClaw飞书官方插件使用指南(公开版) |
| …不断更新 |
3,Skill推荐与SkillHub安装
推荐的Skill详情参考下述仓库:
GitHub - VoltAgent/awesome-openclaw-skills: The awesome collection of OpenClaw skills. 5,400+...
The awesome collection of OpenClaw skills. 5,400+ skills filtered and categorized from the official OpenClaw Skills Registry.🦞
SkillHub是腾讯专为中国用户优化的 AI Skills 社区,收录 ClawHub 生态多个Skills,从而更加方便下载和安装。
💡 据实测,安装SkillHub会出现强制注入提示词的风险,因此不再建议安装skillhub。官网地址:https://skillhub.tencent.com/
安装教程:
(1)直接在宿主机安装(以官方链接为准)
安装 SkillHub CLI:curl -fsSL https://skillhub-1251783334.cos.ap-guangzhou.myqcloud.com/install/install.sh | bash
安装技能:skillhub install github,由于docker镜像中默认路径是/app,因此在使用skillhub install github之前请使用cd /root/.openclaw/workspace切换到指定路径,不然会在 /app/skills下安装。
(2)在Docker中安装
由于openclaw-docker镜像中完全是一个精简的Linux系统,许多功能因此缺失,需要重新安装(不建议在docker中使用skillhub,每次容器更新都会丢失环境)。
在docker镜像中运行命令:apt-get update && apt-get install -y python3 python3-pip curl bash
运行测试,确认python和相关curl等包安装成功: python3 --version
然后按照步骤(1)重试下载安装。
如若安装不上或者在安装中重启导致失败的,请询问AI获取帮助。
4,模型联网设置
(1)百度千帆智能搜索(推荐):
安装该skill,其中可以访问console-apiKey获取apikey,然后访问studio-resource查看每日限额,其用法可以参考智能搜索生成。
将上述获得的apikey放在root/.openclaw/.env文件下,名为BAIDU_API_KEY=上述apikey。
此外,由于该skills需要调用python,因此在docker中运行时候需要提前运行命令apt-get update && apt-get install -y python3 python3-pip curl bash
(2)XXX.XX(不推荐):
一方面第一次发布的时候被认为是推广所以被删贴了,另一方面据论坛消息该厂商进一步砍了免费额度,因此不再推荐。
(3)2api项目(推荐):
可通过github逆向grok和z-ai等厂商使用其在线模型进行联网设置。
5,openclaw转为api进行调用
需要在~/.openclaw/openclaw.json中启用chatCompletions 端点:
{
"gateway": { // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下
"http": {
"endpoints": {
"chatCompletions": {
"enabled": true
}
}
}
}
}
然后可以通过curl进行测试,其采用openai兼容格式,钉钉配置就是使用此格式,但是它只识别http://127.0.0.1:18789/v1端点,貌似不能更改其他端点。
不过据openclaw自己介绍下面那个Authorization 貌似只是摆设,实际不做验证,因此要严格保证该端点仅在内网使用,不要在公网暴露。
curl --request POST 'http://127.0.0.1:18789/v1/chat/completions' \
--header 'Authorization: Bearer config[gatewayauth.token]' \
--header 'Connection: keep-alive' \
--data-raw '{
"model": "openclaw",
"stream": true,
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 1,
"top_p": 1,
"messages": [
{
"content": "Hi",
"role": "user"
}
]
}'
获得api端点就很容易集成到其他应用中,因为我也部署了chatgpt-on-wechat,因此企业微信渠道就没有再配置,直接复用上述渠道了。
6,Mac部署本地模型
推荐使用oMLX架构,其链接如下:
GitHub - jundot/omlx: LLM inference server with continuous batching &...
LLM inference server with continuous batching & SSD caching for Apple Silicon — managed from the macOS menu bar
推荐模型:对于mac mini 2024 16g运行内存的推荐模型
纯聊天模型:mlx-community/Qwen3.5-9B-OptiQ-4bit
多模态模型:mlx-community/Qwen3.5-9B-MLX-4bit
对于更大运行内存的mac
推荐模型:mlx-community/Qwen3.5-27B-Claude-4.6-Opus-Distilled-MLX-4bit
网友解答:--【壹】--:
感谢大佬分享,收藏了
--【贰】--:
感谢分享
--【叁】--:
感谢大佬!
--【肆】--:
感谢分享,大佬好!
PS:再发布一次,第一次貌似因为写了某个有联网模型的API厂商被视为推广了。这一次重新发布,把最近玩了之后相关的坑和推荐都补充上去了,估计往后不会再更新了(因为mac mini 已经被我卖了,24年11月首发3450买的,最近因为openclaw热火加内存暴涨,二手价格上涨又以3330卖出去了,目前全新的价格直逼4000。)谁又能知道在25年6月份的时候全新的最低价格是2500多,电子产品现在太不稳定了,如非刚需不建议再买。另外,内存涨价,现在全新的笔记本价格都到6k起步了,二手的也在上涨,人真是麻了。
文章含有下述厂商,如有可能推广的请提前告知。
- Mistral:中规中矩,最开始以OCR模型出名,可以试试
codestral-latest模型。 - Qwen.ai:推荐,使用qwen code模型很不错,缺点是单一ip会受限。
- 百度千帆:虽然百度是,但是搜索这方面给的免费额度很大方(不需要实名),除此之外很难找到官方的搜索AI聚合额度,要么就是类似brave这种,或者推荐的就是2api(z.ai和grok)。
一,Openclaw简介
1,主要介绍
image1251×904 184 KB
2,项目地址
Github项目地址:
GitHub - openclaw/openclaw: Your own personal AI assistant. Any OS. Any...
Your own personal AI assistant. Any OS. Any Platform. The lobster way. 🦞
项目官方网址:OpenClaw — Personal AI Assistant
3,相似产品对比
官方openclaw过于厚重,因此延伸出很多第三方项目,此处是相关的对比和推荐使用场景。
详情参考下述网址:
https://openclaw-forks-evaluation-report-2026.versun.me/
openclaw类项目“横评” 开发调优这几天一直在用openclaw,但是稳定性是在不敢恭维。 所以也在调查几个类claw的项目。 选定了这几个: OpenClaw / PicoClaw / NanoBot / ZeroClaw / NanoClaw / IronClaw 让codex把这几个的仓库都拉下来,直接从源码比对,写了份报告(居然不支持直接传.md文件) openclaw-family-comparison-repo…
二,Docker部署Openclaw
1,前提设置
由于openclaw官方目前没有直接的docker镜像,因此选择第三方github stars 最高的中文版本进行部署,其项目链接如下:
GitHub - 1186258278/OpenClawChineseTranslation: 🦞 OpenClaw (Clawdbot/Moltbot) 汉化版 - 开源个人 AI 助手中文版...
🦞 OpenClaw (Clawdbot/Moltbot) 汉化版 - 开源个人 AI 助手中文版 | Claude/ChatGPT LLM 接入 | WhatsApp/Telegram/Discord 多平台 | 每小时自动同步 | CLI + Dashboard 全中文 | 全流程搭建教程,以及排错指南!
作为两个都部署过的人来讲,这两个镜像的配置不同,中文版是admin目录,原版是node目录。且中文版貌似有更好的linux环境,很多缺失的可以自行安装。
目前,官方发布了docker镜像,其网址为:openclaw docker,镜像命名规则如下:
镜像命名规则:<版本或分支>[-slim][-<架构>]
main → main分支 + 标准版 + 多架构(amd64+arm64 manifest)
main-slim → main分支 + 精简版 + 多架构
main-amd64 → main分支 + 标准版 + 仅 amd64
main-arm64 → main分支 + 标准版 + 仅 arm64
main-slim-amd64 → main分支 + 精简版 + 仅 amd64
main-slim-arm64 → main分支 + 精简版 + 仅 arm64
latest / 2026.3.8 → 最新稳定版 + 多架构 (Debian 12 完整版)
slim / 2026.3.8-slim → 最新稳定版 + 精简版 + 多架构 (Debian 12 最小化版)
slim 版在运行时会额外安装 procps、hostname、curl、git、openssl 这几个工具(完整版已内置这些)。这部分两者最终是一样的。
以下大型可选功能在两个版本中默认均不内置,需要构建时显式启用:
| 可选功能 | 构建参数 | 增加体积 | 说明 |
|---|---|---|---|
| 浏览器自动化 | --build-arg OPENCLAW_INSTALL_BROWSER=1 |
~300MB | 安装 Chromium + Xvfb(Playwright),slim 版同样可启用 |
| Docker CLI(沙箱管理) | --build-arg OPENCLAW_INSTALL_DOCKER_CLI=1 |
~50MB | 安装 docker-ce-cli,agents.sandbox 功能需要此项 |
| 额外 APT 包 | --build-arg OPENCLAW_DOCKER_APT_PACKAGES="python3 wget" |
视内容而定 | 自定义安装系统包 |
国内用户强烈推荐使用 Docker Hub 镜像,拉取速度快,无需翻墙!
此处为了加快下载速度,我们可以使用 ghcr.nju.edu.cn/openclaw/openclaw:latest 代替 ghcr.io/openclaw/openclaw:latest ,其中ghcr.nju.edu.cn是南京大学官方开源镜像,详细请见:GHCR | e-Science Document
2,安装并设置Docker环境
此处mac系统推荐使用OrbStack,它相较于原版Docker Desktop不仅更加轻量,还提供了友好的界面和相关设置,进入官网直接点击下载安装即可。在第一次下载后无需注册会自动赠送指定时间的pro版本,但实际上pro和普通版本差距不大,不论是否过期都没有任何影响。
安装后,在命令行窗口也能正常使用docker命令,例如键入docker ps会自动识别。
3,安装openclaw并初始化设置
(1)前提条件:
- 确保Mac终端已连接到 Docker 环境(如果是 Docker Desktop,直接打开终端即可;如果是远程服务器,请先 SSH 登录)。
- 确保目录 /Users//Documents/docker/openclaw 存在(命令中会自动创建,但最好确认一下权限)。
- 这三个命令分别对应:初始化配置 → 设置网关模式 → 启动服务。
(2)初始化配置 (交互式)
此命令会启动一个临时容器,请您在终端中根据提示选择模型、输入 API Key 等。配置完成后容器会自动退出。
# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw
docker run --rm -it \
-v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \
ghcr.nju.edu.cn/openclaw/openclaw:latest \
openclaw onboard
请根据其中指引选择相关设置,完毕后会在指定文件夹下看到相关配置文件,其中默认模型要支持函数调用功能,不然在自动识别调用函数的时候会报错。
此处强烈推荐使用Qwen官方认证的方式,只需要在https://chat.qwen.ai/ 提前注册一个账号,然后安装并启用插件openclaw plugins enable qwen-portal-auth,进入认证openclaw models auth login --provider qwen-portal --set-default ,根据命令终端的URL将其输入浏览器,然后输入上述注册的账号密码,认证成功后切换模型openclaw models set qwen-portal/coder-model,它提供了免费层 OAuth 流程(每天 2,000 次请求,受 Qwen 速率限制约束)。对于个人轻度使用完全足够。
参考来源:Qwen - OpenClaw
(3)配置网关模式
# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw
docker run --rm -it \
-v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \
ghcr.nju.edu.cn/openclaw/openclaw:latest \
openclaw config set gateway.mode local
(4)启动服务 (后台运行)
# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw
docker run -d --name openclaw \
-p 18789:18789 \
-v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \
-e NODE_COMPILE_CACHE=/var/tmp/openclaw-compile-cache \
-e OPENCLAW_NO_RESPAWN=1 \
--restart unless-stopped \
ghcr.nju.edu.cn/openclaw/openclaw:latest \
openclaw gateway run
(5)修改网关配置
进入 /Users//Documents/docker/openclaw/openclaw.json 修改下述配置
其中allowedOrigins添加https://openclaw.orb.local 是OrbStack自动分配的,你可以将其修改为自己的实际域名地址。
然后token的<random-string>保持默认生成或者也修改为自己需要的配置
"gateway": {
"port": 18789,
"mode": "local",
"bind": "lan",
"controlUi": {
"allowedOrigins": [
"http://localhost:18789",
"http://127.0.0.1:18789",
"https://openclaw.orb.local"
],
"allowInsecureAuth": true,
"dangerouslyDisableDeviceAuth": true
},
"auth": {
"mode": "token",
"token": "<random-string>"
}
}
(6)进入网关设置
然后在OrbStack(或者Docker Desktop)中进入openclaw的docker终端(Terminal),键入openclaw dashboard,会出现下述设置提示
root@openclaw:/app# openclaw dashboard
🦞 OpenClaw 2026.3.x (xxx) — I'm basically a Swiss Army knife, but with more opinions and fewer sharp edges.
Dashboard URL: http://127.0.0.1:18789/#token=<random-string>
Copy to clipboard unavailable.
未检测到图形界面。请从你的电脑打开:
ssh -N -L 18789:127.0.0.1:18789 user@<host>
然后打开:
http://localhost:18789/
http://localhost:18789/#token=<random-string>
文档:
https://docs.openclaw.ai/gateway/remote
https://docs.openclaw.ai/web/control-ui
root@openclaw:/app#
随后在官网打开 分配域名/#token=<random-string> 即可访问
4,在docker环境配置问题
-
仅限中文版本docker中可以运行。
由于docker默认为极其精简的linux,因此很多包都没法安装,即使安装了在docker重建后也会失效,所以在每次docker重建后最好需要重新安装相关软件包,此处记录部分需要安装的。
# 安装python和curl、bash等相关包 apt-get update && apt-get install -y python3 python3-pip curl bash # 国内服务器最好设置一个官方镜像源 npm config set registry https://registry.npmmirror.com/ # 安装pnpm npm install -g pnpm # 若安装失败,使用官方脚本 curl -fsSL https://get.pnpm.io/install.sh | sh - # 查找openclaw的package.json所在目录 dirname $(readlink -f $(which openclaw))/../package.json 2>/dev/null || \ find /root ~/openclaw /usr/local/lib -name "package.json" -path "*/openclaw/package.json" 2>/dev/null | head -5 # 如若docker环境,一般位于 /app 目录下,切换并重新安装 cd /app pnpm install
原版docker容器为node用户,许多命令无法运行,且会出现权限不足问题。
三,相关配置信息
1,设置Openclaw的记忆模块
其中嵌入模型仅可指定部分服务商官方模型,不能使用第三方中转模型,因此推荐mistral渠道模型,它不限制IP,且可通过参与体验获得免费的API额度,其中推荐模型为codestral-latest。
官方网址:Frontier AI LLMs, assistants, agents, services | Mistral AI
相关命令,在openclaw的docker终端(Terminal)下运行
# 启用记忆搜索
openclaw config set agents.defaults.memorySearch.enabled true
# 设置 Provider 为 mistral
openclaw config set agents.defaults.memorySearch.provider mistral
# 也可选择其他官方模型渠道(选择其一即可)
openclaw config set agents.defaults.memorySearch.provider openai
openclaw config set agents.defaults.memorySearch.provider gemini
openclaw config set agents.defaults.memorySearch.provider mistral
openclaw config set agents.defaults.memorySearch.provider ollama
openclaw config set agents.defaults.memorySearch.provider local
# 设置嵌入模型名称 (Mistral 官方通常为 mistral-embed)
openclaw config set agents.defaults.memorySearch.model mistral-embed
# 验证模型运行情况
openclaw memory status --deep
若使用第三方渠道,可通过openai渠道,通过指定URL和API进行第三方嵌入模型设置,此处以硅基流动为例
# 启用记忆搜索
openclaw config set agents.defaults.memorySearch.enabled true
# 设置第三方嵌入 API 地址(以硅基流动为例)
openclaw config set agents.defaults.memorySearch.remote.baseUrl https://api.siliconflow.cn/v1
# 设置 API Key
openclaw config set agents.defaults.memorySearch.remote.apiKey sk-your-siliconflow-key
# 设置使用 openai 协议(硅基流动兼容 OpenAI embedding 接口)
openclaw config set agents.defaults.memorySearch.provider openai
# 验证配置
openclaw memory status --deep
openclaw doctor
openclaw status
另外,切换向量模型会由于旧索引与新向量不兼容,会导致检索结果不准确或完全失效。因此需要重建内存索引(删除旧索引文件,让系统重新同步),:
# 用官方命令强制全量重建(不用手动删文件,位于/root/.openclaw/memory/main.sqlite)
openclaw memory index --force
# 查看当前索引路径和状态(确认路径)
openclaw memory status
# 重建时显示详细进度
openclaw memory index --force --verbose
最后,有时候会显示错误loadble extension for sqlite-vec not found was the sqlite-vec-linux-arm64 package installed?,这是 ARM64 架构下的常见问题。sqlite-vec是一个原生.so 扩展,需要对应平台的二进制包,即这个npm包没有正确安装或不兼容当前 Node 版本,要么重新安装,要么加载失败不影响功能,直接禁用它
# sqlite-vec 加载失败时系统会自动降级到 JS 内存计算余弦相似度,功能完全可用,只是大规模索引时稍慢
# 直接禁用 sqlite-vec,用 JS fallback(对于一般用量完全够用)
openclaw config set agents.defaults.memorySearch.store.vector.enabled false
2,部分插件下载与配置
| 插件与安装 | 用途 | 教程链接 |
|---|---|---|
| openclaw plugins install @tencent-connect/openclaw-qqbot@latest | 接入QQ机器人 | openclaw-qqbot 非官方版本 |
| openclaw plugins install @wecom/wecom-openclaw-plugin | 接入企业微信智能机器人长连接 | OpenClaw接入企业微信智能机器人 |
| openclaw plugins install @dingtalk-real-ai/dingtalk-connector | 接入钉钉机器人 | 本地安装OpenClaw 与接入钉钉机器人 |
| npx -y https://sf3-cn.feishucdn.com/obj/open-platform-opendoc/879b06f872058309ef70f49bcd38a71f_Pr8pNIJ9J9.tgz install | 接入飞书机器人(请以官方URL为准) | OpenClaw飞书官方插件使用指南(公开版) |
| …不断更新 |
3,Skill推荐与SkillHub安装
推荐的Skill详情参考下述仓库:
GitHub - VoltAgent/awesome-openclaw-skills: The awesome collection of OpenClaw skills. 5,400+...
The awesome collection of OpenClaw skills. 5,400+ skills filtered and categorized from the official OpenClaw Skills Registry.🦞
SkillHub是腾讯专为中国用户优化的 AI Skills 社区,收录 ClawHub 生态多个Skills,从而更加方便下载和安装。
💡 据实测,安装SkillHub会出现强制注入提示词的风险,因此不再建议安装skillhub。官网地址:https://skillhub.tencent.com/
安装教程:
(1)直接在宿主机安装(以官方链接为准)
安装 SkillHub CLI:curl -fsSL https://skillhub-1251783334.cos.ap-guangzhou.myqcloud.com/install/install.sh | bash
安装技能:skillhub install github,由于docker镜像中默认路径是/app,因此在使用skillhub install github之前请使用cd /root/.openclaw/workspace切换到指定路径,不然会在 /app/skills下安装。
(2)在Docker中安装
由于openclaw-docker镜像中完全是一个精简的Linux系统,许多功能因此缺失,需要重新安装(不建议在docker中使用skillhub,每次容器更新都会丢失环境)。
在docker镜像中运行命令:apt-get update && apt-get install -y python3 python3-pip curl bash
运行测试,确认python和相关curl等包安装成功: python3 --version
然后按照步骤(1)重试下载安装。
如若安装不上或者在安装中重启导致失败的,请询问AI获取帮助。
4,模型联网设置
(1)百度千帆智能搜索(推荐):
安装该skill,其中可以访问console-apiKey获取apikey,然后访问studio-resource查看每日限额,其用法可以参考智能搜索生成。
将上述获得的apikey放在root/.openclaw/.env文件下,名为BAIDU_API_KEY=上述apikey。
此外,由于该skills需要调用python,因此在docker中运行时候需要提前运行命令apt-get update && apt-get install -y python3 python3-pip curl bash
(2)XXX.XX(不推荐):
一方面第一次发布的时候被认为是推广所以被删贴了,另一方面据论坛消息该厂商进一步砍了免费额度,因此不再推荐。
(3)2api项目(推荐):
可通过github逆向grok和z-ai等厂商使用其在线模型进行联网设置。
5,openclaw转为api进行调用
需要在~/.openclaw/openclaw.json中启用chatCompletions 端点:
{
"gateway": { // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下
"http": {
"endpoints": {
"chatCompletions": {
"enabled": true
}
}
}
}
}
然后可以通过curl进行测试,其采用openai兼容格式,钉钉配置就是使用此格式,但是它只识别http://127.0.0.1:18789/v1端点,貌似不能更改其他端点。
不过据openclaw自己介绍下面那个Authorization 貌似只是摆设,实际不做验证,因此要严格保证该端点仅在内网使用,不要在公网暴露。
curl --request POST 'http://127.0.0.1:18789/v1/chat/completions' \
--header 'Authorization: Bearer config[gatewayauth.token]' \
--header 'Connection: keep-alive' \
--data-raw '{
"model": "openclaw",
"stream": true,
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 1,
"top_p": 1,
"messages": [
{
"content": "Hi",
"role": "user"
}
]
}'
获得api端点就很容易集成到其他应用中,因为我也部署了chatgpt-on-wechat,因此企业微信渠道就没有再配置,直接复用上述渠道了。
6,Mac部署本地模型
推荐使用oMLX架构,其链接如下:
GitHub - jundot/omlx: LLM inference server with continuous batching &...
LLM inference server with continuous batching & SSD caching for Apple Silicon — managed from the macOS menu bar
推荐模型:对于mac mini 2024 16g运行内存的推荐模型
纯聊天模型:mlx-community/Qwen3.5-9B-OptiQ-4bit
多模态模型:mlx-community/Qwen3.5-9B-MLX-4bit
对于更大运行内存的mac
推荐模型:mlx-community/Qwen3.5-27B-Claude-4.6-Opus-Distilled-MLX-4bit
网友解答:--【壹】--:
感谢大佬分享,收藏了
--【贰】--:
感谢分享
--【叁】--:
感谢大佬!
--【肆】--:
感谢分享,大佬好!

