Dify平台上如何设置多模型接入DeepSeek Ollama?

2026-04-30 16:381阅读0评论SEO问题
  • 内容介绍
  • 文章标签
  • 相关推荐

本文共计579个文字,预计阅读时间需要3分钟。

Dify平台上如何设置多模型接入DeepSeek Ollama?

相关专题:

1、首先,需要下载并安装Ollama程序。安装完成后,它会在您的设备上以后台服务的形式运行。

2、打开终端或命令行工具,输入指令来拉取DeepSeek模型。例如,拉取deepseek-coder模型的指令是:ollama pull deepseek-coder。等待模型文件下载并加载完成。

3、模型拉取成功后,Ollama会自动将其加载。此时,Ollama服务已经准备就绪,可以接收来自Dify的API请求。

在Dify中配置模型供应商

环境准备好后,接下来就是在Dify平台中添加新的模型供应商,并指向我们刚刚部署好的Ollama服务。

1、登录您的Dify平台,在界面右上角进入“设置”页面,然后选择左侧菜单中的“模型供应商”。

2、在模型供应商列表中,找到并点击“Ollama”进行添加配置。

3、在配置页面中,需要填写几个关键信息。首先是“模型名称”,您可以为其自定义一个在Dify中显示的名称,例如“My_DeepSeek”。

4、接着是“服务器URL”,这里需要填写Ollama服务的访问地址。如果Ollama运行在同一台设备上,通常地址为 http://127.0.0.1:11434。请根据您的实际部署情况填写。

5、然后是“模型”,这个字段需要填写的名称必须 与Ollama中拉取的模型名称保持一致,例如我们之前拉取的“deepseek-coder”。

6、完成填写后,点击保存即可。建议在保存后测试一下连通性,以确保Dify可以成功访问到Ollama服务。

验证与使用新模型

完成以上配置后,新添加的DeepSeek模型就可以在Dify的应用中使用了。

1、进入任意一个智能应用,或创建一个新的应用。

2、在应用的“提示词编排”或“调试与预览”界面,找到模型选择的下拉菜单。

3、在模型列表中,您应该能看到刚刚添加的自定义模型名称,例如“My_DeepSeek”。

4、选择该模型,然后可以输入内容进行对话测试,以验证模型是否正常工作。

本文共计579个文字,预计阅读时间需要3分钟。

Dify平台上如何设置多模型接入DeepSeek Ollama?

相关专题:

1、首先,需要下载并安装Ollama程序。安装完成后,它会在您的设备上以后台服务的形式运行。

2、打开终端或命令行工具,输入指令来拉取DeepSeek模型。例如,拉取deepseek-coder模型的指令是:ollama pull deepseek-coder。等待模型文件下载并加载完成。

3、模型拉取成功后,Ollama会自动将其加载。此时,Ollama服务已经准备就绪,可以接收来自Dify的API请求。

在Dify中配置模型供应商

环境准备好后,接下来就是在Dify平台中添加新的模型供应商,并指向我们刚刚部署好的Ollama服务。

1、登录您的Dify平台,在界面右上角进入“设置”页面,然后选择左侧菜单中的“模型供应商”。

2、在模型供应商列表中,找到并点击“Ollama”进行添加配置。

3、在配置页面中,需要填写几个关键信息。首先是“模型名称”,您可以为其自定义一个在Dify中显示的名称,例如“My_DeepSeek”。

4、接着是“服务器URL”,这里需要填写Ollama服务的访问地址。如果Ollama运行在同一台设备上,通常地址为 http://127.0.0.1:11434。请根据您的实际部署情况填写。

5、然后是“模型”,这个字段需要填写的名称必须 与Ollama中拉取的模型名称保持一致,例如我们之前拉取的“deepseek-coder”。

6、完成填写后,点击保存即可。建议在保存后测试一下连通性,以确保Dify可以成功访问到Ollama服务。

验证与使用新模型

完成以上配置后,新添加的DeepSeek模型就可以在Dify的应用中使用了。

1、进入任意一个智能应用,或创建一个新的应用。

2、在应用的“提示词编排”或“调试与预览”界面,找到模型选择的下拉菜单。

3、在模型列表中,您应该能看到刚刚添加的自定义模型名称,例如“My_DeepSeek”。

4、选择该模型,然后可以输入内容进行对话测试,以验证模型是否正常工作。