Dify平台上如何设置多模型接入DeepSeek Ollama?
- 内容介绍
- 文章标签
- 相关推荐
本文共计579个文字,预计阅读时间需要3分钟。
相关专题:
1、首先,需要下载并安装Ollama程序。安装完成后,它会在您的设备上以后台服务的形式运行。
2、打开终端或命令行工具,输入指令来拉取DeepSeek模型。例如,拉取deepseek-coder模型的指令是:ollama pull deepseek-coder。等待模型文件下载并加载完成。
3、模型拉取成功后,Ollama会自动将其加载。此时,Ollama服务已经准备就绪,可以接收来自Dify的API请求。
在Dify中配置模型供应商
环境准备好后,接下来就是在Dify平台中添加新的模型供应商,并指向我们刚刚部署好的Ollama服务。
1、登录您的Dify平台,在界面右上角进入“设置”页面,然后选择左侧菜单中的“模型供应商”。
2、在模型供应商列表中,找到并点击“Ollama”进行添加配置。
3、在配置页面中,需要填写几个关键信息。首先是“模型名称”,您可以为其自定义一个在Dify中显示的名称,例如“My_DeepSeek”。
4、接着是“服务器URL”,这里需要填写Ollama服务的访问地址。如果Ollama运行在同一台设备上,通常地址为 http://127.0.0.1:11434。请根据您的实际部署情况填写。
5、然后是“模型”,这个字段需要填写的名称必须 与Ollama中拉取的模型名称保持一致,例如我们之前拉取的“deepseek-coder”。
6、完成填写后,点击保存即可。建议在保存后测试一下连通性,以确保Dify可以成功访问到Ollama服务。
验证与使用新模型
完成以上配置后,新添加的DeepSeek模型就可以在Dify的应用中使用了。
1、进入任意一个智能应用,或创建一个新的应用。
2、在应用的“提示词编排”或“调试与预览”界面,找到模型选择的下拉菜单。
3、在模型列表中,您应该能看到刚刚添加的自定义模型名称,例如“My_DeepSeek”。
4、选择该模型,然后可以输入内容进行对话测试,以验证模型是否正常工作。
本文共计579个文字,预计阅读时间需要3分钟。
相关专题:
1、首先,需要下载并安装Ollama程序。安装完成后,它会在您的设备上以后台服务的形式运行。
2、打开终端或命令行工具,输入指令来拉取DeepSeek模型。例如,拉取deepseek-coder模型的指令是:ollama pull deepseek-coder。等待模型文件下载并加载完成。
3、模型拉取成功后,Ollama会自动将其加载。此时,Ollama服务已经准备就绪,可以接收来自Dify的API请求。
在Dify中配置模型供应商
环境准备好后,接下来就是在Dify平台中添加新的模型供应商,并指向我们刚刚部署好的Ollama服务。
1、登录您的Dify平台,在界面右上角进入“设置”页面,然后选择左侧菜单中的“模型供应商”。
2、在模型供应商列表中,找到并点击“Ollama”进行添加配置。
3、在配置页面中,需要填写几个关键信息。首先是“模型名称”,您可以为其自定义一个在Dify中显示的名称,例如“My_DeepSeek”。
4、接着是“服务器URL”,这里需要填写Ollama服务的访问地址。如果Ollama运行在同一台设备上,通常地址为 http://127.0.0.1:11434。请根据您的实际部署情况填写。
5、然后是“模型”,这个字段需要填写的名称必须 与Ollama中拉取的模型名称保持一致,例如我们之前拉取的“deepseek-coder”。
6、完成填写后,点击保存即可。建议在保存后测试一下连通性,以确保Dify可以成功访问到Ollama服务。
验证与使用新模型
完成以上配置后,新添加的DeepSeek模型就可以在Dify的应用中使用了。
1、进入任意一个智能应用,或创建一个新的应用。
2、在应用的“提示词编排”或“调试与预览”界面,找到模型选择的下拉菜单。
3、在模型列表中,您应该能看到刚刚添加的自定义模型名称,例如“My_DeepSeek”。
4、选择该模型,然后可以输入内容进行对话测试,以验证模型是否正常工作。

