Windows-Dify+DeepSeek-R1本地化部署

一、准备工作

  1. Dify1.0.0
    可以直接在GitHub搜索Dify下载,这里需要注意本文测试的是Dify1.0.0版,可以按如下步骤切换
    (1)点击: main --> Tags–> 1.1.0,等待加载
    在这里插入图片描述
    (2)点击:Code–> Download ZIP
    在这里插入图片描述

  2. Docker Desktop
    可以直接进入官网下载安装 Docker Desktop 下载地址

  3. Ollama
    可以直接进入官网下载安装 Ollama

二、Dify部署

Dify1.0.0压缩包解压后如下:
在这里插入图片描述
在Dify目录下打开命令行(CMD),注意这里Docker Desktop已经安装完成并启动、完成登陆。
进入下级docker目录,运行命令拉取Dify资源。

D:\dify-1.0.0\dify-1.0.0>cd docker
D:\dify-1.0.0\dify-1.0.0\docker>docker-compose up -d

完成后如下图所示:
在这里插入图片描述
此处打开浏览器,输入localhost回车,即可进入Dify。

三、Ollama启动

下载安装完成Ollama之后,默认是开机自启的Ollama服务,第一次安装完成也是默认启动,右下角任务栏可以看见:在这里插入图片描述
如果Ollama服务未启动,也可以手动启动,打开命令行(CMD)输入如下命令启动:

C:\Users\Admin>ollama serve

可以通过浏览器,输入localhost:11434检查Ollama是否启动成功,显示Ollama is running。
在这里插入图片描述

四、DeepSeek本地部署

这里测试的是1.5b,如果测试设备允许可以测试更高的。
直接在Ollama官网搜索deepseek-r1,选择1.5b,复制对应命令。
在这里插入图片描述
dify-1.0.0\docker目录下,运行复制的ollama命令,首次运行需要一段时间下载模型,如果模型下载完成,之后通过该命令可以直接进入本地的对话。

dify-1.0.0\docker>ollama run deepseek-r1:1.5b

在这里插入图片描述

五、Dify与Ollama连通

(1)在Dify的docker目录下,复制.env.example文件,并删除.example后缀,如下图所示。
在这里插入图片描述
(2)在.env文件的最后关联上Ollama的配置信息。
注意:可以右键该文件用其他应用打开,我这里使用的是VScode,文本文档打开也是可以的。
在这里插入图片描述
可直接复制修改:

# 启动自定义模型
CUSTOM_MODEL_ENABLED = true
# 指定Ollama的API地址
OLLAMA_API_BASE_URL = host.docker.internal:11434

(3)在Dify的docker目录下,重新启动docker

# 关闭docker
docker-compose down
# 启动docker
docker-compose up -d

(4)在Dify中安装Ollama模型供应商
localhost --> 设置 --> 模型供应商 --> Ollama安装
在这里插入图片描述
(5)在Dify上的Ollama中添加DeepSeek模型,配置信息填写如下。
在这里插入图片描述
至此Windows下的Dify与deekseek-r1的本地化部署连通测试已完成,还在学习中在这里插入图片描述
参考资料:
Dify文档
待补充。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

阿羊是个凸头猿

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值