docker部署openclaw(记录一下在macmini上通过docker部署openclaw的流程和设置)

2026-04-11 12:231阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐
问题描述:

PS:再发布一次,第一次貌似因为写了某个有联网模型的API厂商被视为推广了。这一次重新发布,把最近玩了之后相关的坑和推荐都补充上去了,估计往后不会再更新了(因为mac mini 已经被我卖了,24年11月首发3450买的,最近因为openclaw热火加内存暴涨,二手价格上涨又以3330卖出去了,目前全新的价格直逼4000。)谁又能知道在25年6月份的时候全新的最低价格是2500多,电子产品现在太不稳定了,如非刚需不建议再买。另外,内存涨价,现在全新的笔记本价格都到6k起步了,二手的也在上涨,人真是麻了。

文章含有下述厂商,如有可能推广的请提前告知。

  • Mistral:中规中矩,最开始以OCR模型出名,可以试试codestral-latest模型。
  • Qwen.ai:推荐,使用qwen code模型很不错,缺点是单一ip会受限。
  • 百度千帆:虽然百度是,但是搜索这方面给的免费额度很大方(不需要实名),除此之外很难找到官方的搜索AI聚合额度,要么就是类似brave这种,或者推荐的就是2api(z.ai和grok)。

一,Openclaw简介

1,主要介绍

image1251×904 184 KB

2,项目地址

Github项目地址:

github.com

GitHub - openclaw/openclaw: Your own personal AI assistant. Any OS. Any...

Your own personal AI assistant. Any OS. Any Platform. The lobster way. 🦞

项目官方网址:OpenClaw — Personal AI Assistant

3,相似产品对比

官方openclaw过于厚重,因此延伸出很多第三方项目,此处是相关的对比和推荐使用场景。

详情参考下述网址:

https://openclaw-forks-evaluation-report-2026.versun.me/

openclaw类项目“横评” 开发调优
这几天一直在用openclaw,但是稳定性是在不敢恭维。 所以也在调查几个类claw的项目。 选定了这几个: OpenClaw / PicoClaw / NanoBot / ZeroClaw / NanoClaw / IronClaw 让codex把这几个的仓库都拉下来,直接从源码比对,写了份报告(居然不支持直接传.md文件) openclaw-family-comparison-repo…

二,Docker部署Openclaw

1,前提设置

由于openclaw官方目前没有直接的docker镜像,因此选择第三方github stars 最高的中文版本进行部署,其项目链接如下:

github.com

GitHub - 1186258278/OpenClawChineseTranslation: 🦞 OpenClaw (Clawdbot/Moltbot) 汉化版 - 开源个人 AI 助手中文版...

🦞 OpenClaw (Clawdbot/Moltbot) 汉化版 - 开源个人 AI 助手中文版 | Claude/ChatGPT LLM 接入 | WhatsApp/Telegram/Discord 多平台 | 每小时自动同步 | CLI + Dashboard 全中文 | 全流程搭建教程,以及排错指南!

作为两个都部署过的人来讲,这两个镜像的配置不同,中文版是admin目录,原版是node目录。且中文版貌似有更好的linux环境,很多缺失的可以自行安装。

目前,官方发布了docker镜像,其网址为:openclaw docker,镜像命名规则如下:

镜像命名规则:<版本或分支>[-slim][-<架构>] main → main分支 + 标准版 + 多架构(amd64+arm64 manifest) main-slim → main分支 + 精简版 + 多架构 main-amd64 → main分支 + 标准版 + 仅 amd64 main-arm64 → main分支 + 标准版 + 仅 arm64 main-slim-amd64 → main分支 + 精简版 + 仅 amd64 main-slim-arm64 → main分支 + 精简版 + 仅 arm64 latest / 2026.3.8 → 最新稳定版 + 多架构 (Debian 12 完整版) slim / 2026.3.8-slim → 最新稳定版 + 精简版 + 多架构 (Debian 12 最小化版)

slim 版在运行时会额外安装 procpshostnamecurlgitopenssl 这几个工具(完整版已内置这些)。这部分两者最终是一样的。

以下大型可选功能在两个版本中默认均不内置,需要构建时显式启用:

可选功能 构建参数 增加体积 说明
浏览器自动化 --build-arg OPENCLAW_INSTALL_BROWSER=1 ~300MB 安装 Chromium + Xvfb(Playwright),slim 版同样可启用
Docker CLI(沙箱管理) --build-arg OPENCLAW_INSTALL_DOCKER_CLI=1 ~50MB 安装 docker-ce-cli,agents.sandbox 功能需要此项
额外 APT 包 --build-arg OPENCLAW_DOCKER_APT_PACKAGES="python3 wget" 视内容而定 自定义安装系统包

国内用户强烈推荐使用 Docker Hub 镜像,拉取速度快,无需翻墙!

此处为了加快下载速度,我们可以使用 ghcr.nju.edu.cn/openclaw/openclaw:latest 代替 ghcr.io/openclaw/openclaw:latest ,其中ghcr.nju.edu.cn是南京大学官方开源镜像,详细请见:GHCR | e-Science Document

2,安装并设置Docker环境

此处mac系统推荐使用OrbStack,它相较于原版Docker Desktop不仅更加轻量,还提供了友好的界面和相关设置,进入官网直接点击下载安装即可。在第一次下载后无需注册会自动赠送指定时间的pro版本,但实际上pro和普通版本差距不大,不论是否过期都没有任何影响。

安装后,在命令行窗口也能正常使用docker命令,例如键入docker ps会自动识别。

3,安装openclaw并初始化设置

(1)前提条件:

  1. 确保Mac终端已连接到 Docker 环境(如果是 Docker Desktop,直接打开终端即可;如果是远程服务器,请先 SSH 登录)。
  2. 确保目录 /Users//Documents/docker/openclaw 存在(命令中会自动创建,但最好确认一下权限)。
  3. 这三个命令分别对应:初始化配置 → 设置网关模式 → 启动服务。

(2)初始化配置 (交互式)

此命令会启动一个临时容器,请您在终端中根据提示选择模型、输入 API Key 等。配置完成后容器会自动退出。

# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw docker run --rm -it \ -v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \ ghcr.nju.edu.cn/openclaw/openclaw:latest \ openclaw onboard

请根据其中指引选择相关设置,完毕后会在指定文件夹下看到相关配置文件,其中默认模型要支持函数调用功能,不然在自动识别调用函数的时候会报错。

此处强烈推荐使用Qwen官方认证的方式,只需要在https://chat.qwen.ai/ 提前注册一个账号,然后安装并启用插件openclaw plugins enable qwen-portal-auth,进入认证openclaw models auth login --provider qwen-portal --set-default ,根据命令终端的URL将其输入浏览器,然后输入上述注册的账号密码,认证成功后切换模型openclaw models set qwen-portal/coder-model,它提供了免费层 OAuth 流程(每天 2,000 次请求,受 Qwen 速率限制约束)。对于个人轻度使用完全足够。

参考来源:Qwen - OpenClaw

(3)配置网关模式

# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw docker run --rm -it \ -v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \ ghcr.nju.edu.cn/openclaw/openclaw:latest \ openclaw config set gateway.mode local

(4)启动服务 (后台运行)

# 如果是中文版本docker镜像,请将 /home/node/.openclaw 修改为 /root/.openclaw docker run -d --name openclaw \ -p 18789:18789 \ -v /Users/<username>/Documents/docker/openclaw:/home/node/.openclaw \ -e NODE_COMPILE_CACHE=/var/tmp/openclaw-compile-cache \ -e OPENCLAW_NO_RESPAWN=1 \ --restart unless-stopped \ ghcr.nju.edu.cn/openclaw/openclaw:latest \ openclaw gateway run

(5)修改网关配置

进入 /Users//Documents/docker/openclaw/openclaw.json 修改下述配置

其中allowedOrigins添加https://openclaw.orb.local 是OrbStack自动分配的,你可以将其修改为自己的实际域名地址。

然后token的<random-string>保持默认生成或者也修改为自己需要的配置

"gateway": { "port": 18789, "mode": "local", "bind": "lan", "controlUi": { "allowedOrigins": [ "http://localhost:18789", "http://127.0.0.1:18789", "https://openclaw.orb.local" ], "allowInsecureAuth": true, "dangerouslyDisableDeviceAuth": true }, "auth": { "mode": "token", "token": "<random-string>" } }

(6)进入网关设置

然后在OrbStack(或者Docker Desktop)中进入openclaw的docker终端(Terminal),键入openclaw dashboard,会出现下述设置提示

root@openclaw:/app# openclaw dashboard 🦞 OpenClaw 2026.3.x (xxx) — I'm basically a Swiss Army knife, but with more opinions and fewer sharp edges. Dashboard URL: http://127.0.0.1:18789/#token=<random-string> Copy to clipboard unavailable. 未检测到图形界面。请从你的电脑打开: ssh -N -L 18789:127.0.0.1:18789 user@<host> 然后打开: http://localhost:18789/ http://localhost:18789/#token=<random-string> 文档: https://docs.openclaw.ai/gateway/remote https://docs.openclaw.ai/web/control-ui root@openclaw:/app#

随后在官网打开 分配域名/#token=<random-string> 即可访问

4,在docker环境配置问题

  • 仅限中文版本docker中可以运行。

    由于docker默认为极其精简的linux,因此很多包都没法安装,即使安装了在docker重建后也会失效,所以在每次docker重建后最好需要重新安装相关软件包,此处记录部分需要安装的。

    # 安装python和curl、bash等相关包 apt-get update && apt-get install -y python3 python3-pip curl bash # 国内服务器最好设置一个官方镜像源 npm config set registry https://registry.npmmirror.com/ # 安装pnpm npm install -g pnpm # 若安装失败,使用官方脚本 curl -fsSL https://get.pnpm.io/install.sh | sh - # 查找openclaw的package.json所在目录 dirname $(readlink -f $(which openclaw))/../package.json 2>/dev/null || \ find /root ~/openclaw /usr/local/lib -name "package.json" -path "*/openclaw/package.json" 2>/dev/null | head -5 # 如若docker环境,一般位于 /app 目录下,切换并重新安装 cd /app pnpm install

原版docker容器为node用户,许多命令无法运行,且会出现权限不足问题。

三,相关配置信息

1,设置Openclaw的记忆模块

其中嵌入模型仅可指定部分服务商官方模型,不能使用第三方中转模型,因此推荐mistral渠道模型,它不限制IP,且可通过参与体验获得免费的API额度,其中推荐模型为codestral-latest

官方网址:Frontier AI LLMs, assistants, agents, services | Mistral AI

相关命令,在openclaw的docker终端(Terminal)下运行

# 启用记忆搜索 openclaw config set agents.defaults.memorySearch.enabled true # 设置 Provider 为 mistral openclaw config set agents.defaults.memorySearch.provider mistral # 也可选择其他官方模型渠道(选择其一即可) openclaw config set agents.defaults.memorySearch.provider openai openclaw config set agents.defaults.memorySearch.provider gemini openclaw config set agents.defaults.memorySearch.provider mistral openclaw config set agents.defaults.memorySearch.provider ollama openclaw config set agents.defaults.memorySearch.provider local # 设置嵌入模型名称 (Mistral 官方通常为 mistral-embed) openclaw config set agents.defaults.memorySearch.model mistral-embed # 验证模型运行情况 openclaw memory status --deep

若使用第三方渠道,可通过openai渠道,通过指定URL和API进行第三方嵌入模型设置,此处以硅基流动为例

# 启用记忆搜索 openclaw config set agents.defaults.memorySearch.enabled true # 设置第三方嵌入 API 地址(以硅基流动为例) openclaw config set agents.defaults.memorySearch.remote.baseUrl https://api.siliconflow.cn/v1 # 设置 API Key openclaw config set agents.defaults.memorySearch.remote.apiKey sk-your-siliconflow-key # 设置使用 openai 协议(硅基流动兼容 OpenAI embedding 接口) openclaw config set agents.defaults.memorySearch.provider openai # 验证配置 openclaw memory status --deep openclaw doctor openclaw status

另外,切换向量模型会由于旧索引与新向量不兼容,会导致检索结果不准确或完全失效。因此需要重建内存索引(删除旧索引文件,让系统重新同步),:

# 用官方命令强制全量重建(不用手动删文件,位于/root/.openclaw/memory/main.sqlite) openclaw memory index --force # 查看当前索引路径和状态(确认路径) openclaw memory status # 重建时显示详细进度 openclaw memory index --force --verbose

最后,有时候会显示错误loadble extension for sqlite-vec not found was the sqlite-vec-linux-arm64 package installed?,这是 ARM64 架构下的常见问题。sqlite-vec是一个原生.so 扩展,需要对应平台的二进制包,即这个npm包没有正确安装或不兼容当前 Node 版本,要么重新安装,要么加载失败不影响功能,直接禁用它

# sqlite-vec 加载失败时系统会自动降级到 JS 内存计算余弦相似度,功能完全可用,只是大规模索引时稍慢 # 直接禁用 sqlite-vec,用 JS fallback(对于一般用量完全够用) openclaw config set agents.defaults.memorySearch.store.vector.enabled false

2,部分插件下载与配置

插件与安装 用途 教程链接
openclaw plugins install @tencent-connect/openclaw-qqbot@latest 接入QQ机器人 openclaw-qqbot 非官方版本
openclaw plugins install @wecom/wecom-openclaw-plugin 接入企业微信智能机器人长连接 OpenClaw接入企业微信智能机器人
openclaw plugins install @dingtalk-real-ai/dingtalk-connector 接入钉钉机器人 本地安装OpenClaw 与接入钉钉机器人
npx -y https://sf3-cn.feishucdn.com/obj/open-platform-opendoc/879b06f872058309ef70f49bcd38a71f_Pr8pNIJ9J9.tgz install 接入飞书机器人(请以官方URL为准) OpenClaw飞书官方插件使用指南(公开版)
…不断更新

3,Skill推荐与SkillHub安装

推荐的Skill详情参考下述仓库:

github.com

GitHub - VoltAgent/awesome-openclaw-skills: The awesome collection of OpenClaw skills. 5,400+...

The awesome collection of OpenClaw skills. 5,400+ skills filtered and categorized from the official OpenClaw Skills Registry.🦞

SkillHub是腾讯专为中国用户优化的 AI Skills 社区,收录 ClawHub 生态多个Skills,从而更加方便下载和安装。

💡 据实测,安装SkillHub会出现强制注入提示词的风险,因此不再建议安装skillhub。

官网地址:https://skillhub.tencent.com/
安装教程:

(1)直接在宿主机安装(以官方链接为准)

安装 SkillHub CLI:curl -fsSL https://skillhub-1251783334.cos.ap-guangzhou.myqcloud.com/install/install.sh | bash
安装技能:skillhub install github,由于docker镜像中默认路径是/app,因此在使用skillhub install github之前请使用cd /root/.openclaw/workspace切换到指定路径,不然会在 /app/skills下安装。

(2)在Docker中安装

由于openclaw-docker镜像中完全是一个精简的Linux系统,许多功能因此缺失,需要重新安装(不建议在docker中使用skillhub,每次容器更新都会丢失环境)。

在docker镜像中运行命令:apt-get update && apt-get install -y python3 python3-pip curl bash

运行测试,确认python和相关curl等包安装成功: python3 --version

然后按照步骤(1)重试下载安装。

如若安装不上或者在安装中重启导致失败的,请询问AI获取帮助。

4,模型联网设置

(1)百度千帆智能搜索(推荐):

安装该skill,其中可以访问console-apiKey获取apikey,然后访问studio-resource查看每日限额,其用法可以参考智能搜索生成。

将上述获得的apikey放在root/.openclaw/.env文件下,名为BAIDU_API_KEY=上述apikey。

此外,由于该skills需要调用python,因此在docker中运行时候需要提前运行命令apt-get update && apt-get install -y python3 python3-pip curl bash

(2)XXX.XX(不推荐):

一方面第一次发布的时候被认为是推广所以被删贴了,另一方面据论坛消息该厂商进一步砍了免费额度,因此不再推荐。

(3)2api项目(推荐):

可通过github逆向grok和z-ai等厂商使用其在线模型进行联网设置。

5,openclaw转为api进行调用

需要在~/.openclaw/openclaw.json中启用chatCompletions 端点:

{ "gateway": { // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下 "http": { "endpoints": { "chatCompletions": { "enabled": true } } } } }

然后可以通过curl进行测试,其采用openai兼容格式,钉钉配置就是使用此格式,但是它只识别http://127.0.0.1:18789/v1端点,貌似不能更改其他端点。

不过据openclaw自己介绍下面那个Authorization 貌似只是摆设,实际不做验证,因此要严格保证该端点仅在内网使用,不要在公网暴露。

curl --request POST 'http://127.0.0.1:18789/v1/chat/completions' \ --header 'Authorization: Bearer config[gatewayauth.token]' \ --header 'Connection: keep-alive' \ --data-raw '{ "model": "openclaw", "stream": true, "frequency_penalty": 0, "presence_penalty": 0, "temperature": 1, "top_p": 1, "messages": [ { "content": "Hi", "role": "user" } ] }'

获得api端点就很容易集成到其他应用中,因为我也部署了chatgpt-on-wechat,因此企业微信渠道就没有再配置,直接复用上述渠道了。

6,Mac部署本地模型

推荐使用oMLX架构,其链接如下:

github.com

GitHub - jundot/omlx: LLM inference server with continuous batching &...

LLM inference server with continuous batching & SSD caching for Apple Silicon — managed from the macOS menu bar

推荐模型:对于mac mini 2024 16g运行内存的推荐模型

纯聊天模型:mlx-community/Qwen3.5-9B-OptiQ-4bit

多模态模型:mlx-community/Qwen3.5-9B-MLX-4bit

对于更大运行内存的mac

推荐模型:mlx-community/Qwen3.5-27B-Claude-4.6-Opus-Distilled-MLX-4bit

网友解答:
--【壹】--:

感谢大佬分享,收藏了


--【贰】--:

感谢分享


--【叁】--:

感谢大佬!


--【肆】--:

感谢分享,大佬好!