AppFlowy Local AI 接入云端大模型教程(无需本地跑模型)
- 内容介绍
- 文章标签
- 相关推荐
折腾了一段时间,终于跑通了,分享给有同样需求的佬。
AppFlowy 是什么
简单说,AppFlowy 是一个开源的 Notion 替代品,支持文档、数据库、看板、日历等功能,
界面和交互跟 Notion 高度相似,上手没有门槛。
对比 Notion 最大的优势是可以完全自托管,数据不出自己的服务器。
官方提供了 AppFlowy Cloud 自托管方案,Docker 一键部署,
文档同步、多人协作、版本历史全都有,完全免费。
flutter实现多客户端支持,资源占用极低,响应快。
AI 功能是 AppFlowy 近期主推的方向,支持:
- AI 写作:选中文字,一键润色/翻译/总结
- AI 对话:在文档侧边栏直接跟 AI 聊,基于当前文档内容问答
- AI 填表:数据库视图里批量让 AI 填充字段
官方的 AI 是接的 AppFlowy 云端服务(收费),
但通过 Local AI 功能可以完全接入自己的模型,这也是本文要折腾的事情。
背景
AppFlowy 的 Local AI 功能本意是配合 Ollama/LM Studio 在本地跑大模型。
但对于没有高端显卡的佬,本地跑模型基本不现实。
其实可以用 AxonHub(一个兼容 OpenAI 格式的 AI 网关)伪装成 LM Studio,
让 AppFlowy 以为在连本地模型,实际上请求转发到任意云端 API(DeepSeek、Claude、GPT 都行)。
架构很简单
AppFlowy → AxonHub(伪装 LM Studio) → 云端 API
关闭鉴权(关键步骤)
AppFlowy 在 LM Studio 模式下没有 API Key 输入框,
需要在 AxonHub 配置中开启「关闭 API Key 鉴权」模式:
server:
api:
auth:
allow_no_auth: true
AppFlowy 配置步骤
- 打开 AppFlowy → 设置 → AI 设置
- 选择 Local AI
- 模式选 LM Studio
- Server URL 填
http://localhost:1234/v1 - 点击「Apply」,能看到模型列表说明连接成功
- 选择模型,保存
效果
不需要本地显卡,不需要跑 Ollama,不需要付费使用AppFlowy 的 AI 功能,
文档总结、AI 写作、对话等功能全部正常使用,
实际跑的是云端大模型,可以随意切换。
--【壹】--:
折腾了一段时间,终于跑通了,分享给有同样需求的佬。
AppFlowy 是什么
简单说,AppFlowy 是一个开源的 Notion 替代品,支持文档、数据库、看板、日历等功能,
界面和交互跟 Notion 高度相似,上手没有门槛。
对比 Notion 最大的优势是可以完全自托管,数据不出自己的服务器。
官方提供了 AppFlowy Cloud 自托管方案,Docker 一键部署,
文档同步、多人协作、版本历史全都有,完全免费。
flutter实现多客户端支持,资源占用极低,响应快。
AI 功能是 AppFlowy 近期主推的方向,支持:
- AI 写作:选中文字,一键润色/翻译/总结
- AI 对话:在文档侧边栏直接跟 AI 聊,基于当前文档内容问答
- AI 填表:数据库视图里批量让 AI 填充字段
官方的 AI 是接的 AppFlowy 云端服务(收费),
但通过 Local AI 功能可以完全接入自己的模型,这也是本文要折腾的事情。
背景
AppFlowy 的 Local AI 功能本意是配合 Ollama/LM Studio 在本地跑大模型。
但对于没有高端显卡的佬,本地跑模型基本不现实。
其实可以用 AxonHub(一个兼容 OpenAI 格式的 AI 网关)伪装成 LM Studio,
让 AppFlowy 以为在连本地模型,实际上请求转发到任意云端 API(DeepSeek、Claude、GPT 都行)。
架构很简单
AppFlowy → AxonHub(伪装 LM Studio) → 云端 API
关闭鉴权(关键步骤)
AppFlowy 在 LM Studio 模式下没有 API Key 输入框,
需要在 AxonHub 配置中开启「关闭 API Key 鉴权」模式:
server:
api:
auth:
allow_no_auth: true
AppFlowy 配置步骤
- 打开 AppFlowy → 设置 → AI 设置
- 选择 Local AI
- 模式选 LM Studio
- Server URL 填
http://localhost:1234/v1 - 点击「Apply」,能看到模型列表说明连接成功
- 选择模型,保存
效果
不需要本地显卡,不需要跑 Ollama,不需要付费使用AppFlowy 的 AI 功能,
文档总结、AI 写作、对话等功能全部正常使用,
实际跑的是云端大模型,可以随意切换。
折腾了一段时间,终于跑通了,分享给有同样需求的佬。
AppFlowy 是什么
简单说,AppFlowy 是一个开源的 Notion 替代品,支持文档、数据库、看板、日历等功能,
界面和交互跟 Notion 高度相似,上手没有门槛。
对比 Notion 最大的优势是可以完全自托管,数据不出自己的服务器。
官方提供了 AppFlowy Cloud 自托管方案,Docker 一键部署,
文档同步、多人协作、版本历史全都有,完全免费。
flutter实现多客户端支持,资源占用极低,响应快。
AI 功能是 AppFlowy 近期主推的方向,支持:
- AI 写作:选中文字,一键润色/翻译/总结
- AI 对话:在文档侧边栏直接跟 AI 聊,基于当前文档内容问答
- AI 填表:数据库视图里批量让 AI 填充字段
官方的 AI 是接的 AppFlowy 云端服务(收费),
但通过 Local AI 功能可以完全接入自己的模型,这也是本文要折腾的事情。
背景
AppFlowy 的 Local AI 功能本意是配合 Ollama/LM Studio 在本地跑大模型。
但对于没有高端显卡的佬,本地跑模型基本不现实。
其实可以用 AxonHub(一个兼容 OpenAI 格式的 AI 网关)伪装成 LM Studio,
让 AppFlowy 以为在连本地模型,实际上请求转发到任意云端 API(DeepSeek、Claude、GPT 都行)。
架构很简单
AppFlowy → AxonHub(伪装 LM Studio) → 云端 API
关闭鉴权(关键步骤)
AppFlowy 在 LM Studio 模式下没有 API Key 输入框,
需要在 AxonHub 配置中开启「关闭 API Key 鉴权」模式:
server:
api:
auth:
allow_no_auth: true
AppFlowy 配置步骤
- 打开 AppFlowy → 设置 → AI 设置
- 选择 Local AI
- 模式选 LM Studio
- Server URL 填
http://localhost:1234/v1 - 点击「Apply」,能看到模型列表说明连接成功
- 选择模型,保存
效果
不需要本地显卡,不需要跑 Ollama,不需要付费使用AppFlowy 的 AI 功能,
文档总结、AI 写作、对话等功能全部正常使用,
实际跑的是云端大模型,可以随意切换。
--【壹】--:
折腾了一段时间,终于跑通了,分享给有同样需求的佬。
AppFlowy 是什么
简单说,AppFlowy 是一个开源的 Notion 替代品,支持文档、数据库、看板、日历等功能,
界面和交互跟 Notion 高度相似,上手没有门槛。
对比 Notion 最大的优势是可以完全自托管,数据不出自己的服务器。
官方提供了 AppFlowy Cloud 自托管方案,Docker 一键部署,
文档同步、多人协作、版本历史全都有,完全免费。
flutter实现多客户端支持,资源占用极低,响应快。
AI 功能是 AppFlowy 近期主推的方向,支持:
- AI 写作:选中文字,一键润色/翻译/总结
- AI 对话:在文档侧边栏直接跟 AI 聊,基于当前文档内容问答
- AI 填表:数据库视图里批量让 AI 填充字段
官方的 AI 是接的 AppFlowy 云端服务(收费),
但通过 Local AI 功能可以完全接入自己的模型,这也是本文要折腾的事情。
背景
AppFlowy 的 Local AI 功能本意是配合 Ollama/LM Studio 在本地跑大模型。
但对于没有高端显卡的佬,本地跑模型基本不现实。
其实可以用 AxonHub(一个兼容 OpenAI 格式的 AI 网关)伪装成 LM Studio,
让 AppFlowy 以为在连本地模型,实际上请求转发到任意云端 API(DeepSeek、Claude、GPT 都行)。
架构很简单
AppFlowy → AxonHub(伪装 LM Studio) → 云端 API
关闭鉴权(关键步骤)
AppFlowy 在 LM Studio 模式下没有 API Key 输入框,
需要在 AxonHub 配置中开启「关闭 API Key 鉴权」模式:
server:
api:
auth:
allow_no_auth: true
AppFlowy 配置步骤
- 打开 AppFlowy → 设置 → AI 设置
- 选择 Local AI
- 模式选 LM Studio
- Server URL 填
http://localhost:1234/v1 - 点击「Apply」,能看到模型列表说明连接成功
- 选择模型,保存
效果
不需要本地显卡,不需要跑 Ollama,不需要付费使用AppFlowy 的 AI 功能,
文档总结、AI 写作、对话等功能全部正常使用,
实际跑的是云端大模型,可以随意切换。

