一、准备工作
-
Dify1.0.0
可以直接在GitHub搜索Dify下载,这里需要注意本文测试的是Dify1.0.0版,可以按如下步骤切换
(1)点击: main --> Tags–> 1.1.0,等待加载
(2)点击:Code–> Download ZIP
-
Docker Desktop
可以直接进入官网下载安装 Docker Desktop 下载地址 -
Ollama
可以直接进入官网下载安装 Ollama
二、Dify部署
Dify1.0.0压缩包解压后如下:
在Dify目录下打开命令行(CMD),注意这里Docker Desktop已经安装完成并启动、完成登陆。
进入下级docker目录,运行命令拉取Dify资源。
D:\dify-1.0.0\dify-1.0.0>cd docker
D:\dify-1.0.0\dify-1.0.0\docker>docker-compose up -d
完成后如下图所示:
此处打开浏览器,输入localhost回车,即可进入Dify。
三、Ollama启动
下载安装完成Ollama之后,默认是开机自启的Ollama服务,第一次安装完成也是默认启动,右下角任务栏可以看见:
如果Ollama服务未启动,也可以手动启动,打开命令行(CMD)输入如下命令启动:
C:\Users\Admin>ollama serve
可以通过浏览器,输入localhost:11434检查Ollama是否启动成功,显示Ollama is running。
四、DeepSeek本地部署
这里测试的是1.5b,如果测试设备允许可以测试更高的。
直接在Ollama官网搜索deepseek-r1,选择1.5b,复制对应命令。
在 dify-1.0.0\docker目录下,运行复制的ollama命令,首次运行需要一段时间下载模型,如果模型下载完成,之后通过该命令可以直接进入本地的对话。
dify-1.0.0\docker>ollama run deepseek-r1:1.5b
五、Dify与Ollama连通
(1)在Dify的docker目录下,复制.env.example文件,并删除.example后缀,如下图所示。
(2)在.env文件的最后关联上Ollama的配置信息。
注意:可以右键该文件用其他应用打开,我这里使用的是VScode,文本文档打开也是可以的。
可直接复制修改:
# 启动自定义模型
CUSTOM_MODEL_ENABLED = true
# 指定Ollama的API地址
OLLAMA_API_BASE_URL = host.docker.internal:11434
(3)在Dify的docker目录下,重新启动docker
# 关闭docker
docker-compose down
# 启动docker
docker-compose up -d
(4)在Dify中安装Ollama模型供应商
localhost --> 设置 --> 模型供应商 --> Ollama安装
(5)在Dify上的Ollama中添加DeepSeek模型,配置信息填写如下。
至此Windows下的Dify与deekseek-r1的本地化部署连通测试已完成,还在学习中
参考资料:
Dify文档
待补充。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。