Dify部署踩坑指南(Windows+Mac)

组件说明

在这里插入图片描述

Dify踩坑及解决方案

⚠️ 除了修改镜像版本,nginx端口不要直接修改docker-compose.yaml !!!!!!!

1、更换镜像版本

这个文件是由.env自动生成的,在.env配置

拉取dify-main后,默认的镜像版本是1.0.0,我将镜像版本修改为0.14.2是可以正常用的
(开始在Mac中拉取的就是1.0.0的镜像版本,在添加模型供应商时提示组件缺失,需要再次手动下载各个模型供应商组件,0.14.2版本不存在这个问题)

修改方式:在yaml中搜索1.0.0,将所有的版本号替换为0.14.2

services:
  # API service
  api:
    image: langgenius/dify-api:0.14.2 
 web:
    image: langgenius/dify-web:0.14.2
    restart: always
 # worker service
  # The Celery worker for processing the queue.
  worker:
    image: langgenius/dify-api:0.14.2
    restart: always

2、ollama接入dify报错(容器网络隔离)

在这里插入图片描述

Docker内部容器地址默认为127.0.0.1和localhost,非宿主机,需要将 Ollama 服务暴露给网络才可以正常接入

解决:使用host.docker.internal

Windows

Ollama的默认监听地址为127.0.0.1,导致其他容器无法访问,启动Ollama时指定监听所有网络接口0.0.0.0

首先,在系统环境变量中添加OLLAMA_HOST,值为0.0.0.0,并启动ollama

ollama serve

如果提示端口被占用,在任务管理器中关闭所有运行的ollama服务

然后,在宿主机上验证Ollama是否运行正常

curl http://localhost:11434

接着,配置防火墙确保允许外部设备访问Ollama所使用的端口
在这里插入图片描述

Mac

1、设置Ollama环境变量

launchctl setenv OLLAMA_HOST "0.0.0.0"

如果是手动启动 Ollama,可以使用以下命令(临时)

ollama serve --host 0.0.0.0

在 Dify 配置中使用 host.docker.internal

2、从 Dify 容器中测试连接

curl http://host.docker.internal:11434

3、将 Ollama 的地址设置为

http://host.docker.internal:11434

Linux

在[Service]下加上Environment=“OLLAMA_HOST=0.0.0.0”
具体修改方法在这里

3、启动

在dify所在地址栏输入cmd,进入终端,拉取镜像,复制环境变量,采用默认端口启动

cd dify/docker
cp .env.example .env
docker compose up -d

如果修改了配置,需要重启docker,命令如下:

docker compose down
docker compose up -d

如果在拉取镜像中报错

Error response from daemon: Get “https://registry-1.docker.io/v2/”: EOF

请docker镜像源换为国内镜像源

Mac&Windows在Docker桌面中修改

在这里插入图片描述
点击顶部齿轮,进入Docker Engine

#镜像源如下


{
  "registry-mirrors": [
    "https://docker.1panel.live",
    "https://docker.nju.edu.cn",
    "https://docker.m.daocloud.io",
    "https://dockerproxy.com",
    "https://hub-mirror.c.163.com",
    "https://docker.mirrors.ustc.edu.cn",
    "https://registry.docker-cn.com",
    "https://registry.cn-hangzhou.aliyuncs.com"
  ]
}
Linux请修改daemon.json文件

vim /etc/docker/daemon.json
保存退出:esc–>:wq–>Enter

4、接入模型供应商时模型的url

模型供应商” > “ollama” > “添加”。
将 URL 设置为 http://host.docker.internal:11434,让 Docker 通过内部地址访问

Ollama的端口号默认为11434

端口冲突

1、Ollama端口被占用

如果之前部署过其他应用,用Ollama链接过其他应用,可能会遇到端口冲突的问题
方法1:关闭其他占用Ollama的进程
Windows

netstat -ano | findstr :11434

在这里插入图片描述

Mac/Linux

sudo lsof -i :11434

运行以下命令终止进程
Windows

taskkill /PID <PID> /F

Mac/Linux

kill -9 <PID>

方法2,修改Ollama默认端口号
在这里插入图片描述

2、dify默认端口被占用

dify的默认web端口号80
在docker中的.env文件中修改web端口号
修改如下:

EXPOSE_NGINX_PORT=8080 # 修改 Web 访问端口 (改这个)
EXPOSE_NGINX_SSL_PORT=8443 # 修改 SSL 端口
DIFY_PORT=5002 # 修改 API 服务端口

### 安装和配置DeepSeek与Dify #### 准备工作 为了在Windows上成功部署DeepSeek和Dify,确保计算机已安装必要的软件环境。这包括但不限于Python版本3.8以上以及Git工具[^1]。 #### 获取所需资源 通过Ollama平台获取所需的DeepSeek模型非常简便。对于希望使用`deepseek-coder`模型的情况,在命令提示符下输入如下指令完成下载: ```bash ollama pull deepseek-coder ``` 此过程会自动从Ollama的官方仓库中提取指定的预训练模型文件并保存到本地环境中以便后续调用。 #### 设置开发环境 针对Windows系统的特性,推荐采用Anaconda作为管理虚拟环境的选择之一。创建一个新的Conda环境用于隔离项目依赖关系,并激活该环境: ```bash conda create -n deepseek_env python=3.9 conda activate deepseek_env ``` 接着按照官方文档指示安装其他必需包,比如PyTorch框架及其对应的CUDA扩展(如果硬件支持的话),以及其他由具体应用场景决定的支持库。 #### 配置Dify服务端口映射 当涉及到网络通信部分时,可能需要调整防火墙设置允许外部访问特定的服务端口号;同时也要注意内部应用之间的交互方式是否受到安全策略的影响而受限。通常情况下,默认HTTP(S)协议所使用的80/443端口会被保留给Web服务器监听请求,因此建议为自定义API接口分配非标准范围内的可用端口,如5000或更高数值区间内未被占用的位置。 #### 启动应用程序实例 最后一步就是启动整个解决方案堆栈了。假设一切顺利,则可以通过简单的脚本或者批处理文件实现一键式操作体验。下面给出了一段简化版的例子供参考: ```batchfile @echo off set FLASK_APP=dify_api.py flask run --host=0.0.0.0 --port=5000 pause ``` 这段代码片段展示了如何利用Flask微框架快速搭建RESTful API入口点并与前端界面相连接的方式方法。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值