以下是针对Dify平台的新手使用指南,涵盖从部署到基础操作的完整流程,结合官方文档及实践总结,帮助用户快速上手:
一、环境准备与部署
-
系统要求
- 操作系统:支持Linux(如Ubuntu 22.04+)、Windows WSL或macOS。
- 依赖工具:Docker 24.0+、Python 3.12(推荐使用Poetry管理)、Node.js v18.x LTS(前端依赖)。
-
一键部署(推荐Docker Compose)
git clone https://github.com/langgenius/dify.git cd dify/docker cp .env.example .env # 复制环境变量模板 docker compose up -d # 启动容器
- 网络优化:若镜像下载慢,可修改Docker镜像源(如中科大、阿里云镜像)。
- 访问地址:部署完成后,浏览器输入
http://localhost
进入初始化页面。
二、初始设置与模型配置
-
管理员账号创建
首次访问需设置管理员邮箱及密码,完成后登录进入主界面。 -
模型供应商配置
- 支持模型:包括OpenAI、Llama、通义千问等,支持本地模型(如Ollama)。
- 以OpenAI为例:
- 进入「设置 → 模型供应商」,选择OpenAI。
- 填写API Key及代理地址(若需科学上网)。
- 本地模型对接:如使用Ollama,填写模型名称及本地API地址(如
http://host.docker.internal:11434
)。
三、创建首个AI应用
-
新建应用
- 点击「创建应用」,选择模板(如聊天机器人、知识库问答)或空白应用。
- 在应用编辑界面选择已配置的模型(如GPT-4、Llama3)。
-
提示词编排
- 使用内置的Prompt IDE编写提示词,支持变量插值及多模型切换。
- 示例:定义角色指令(如“你是一个客服助手,需友好回答用户问题”)。
-
知识库集成
- 上传文档(支持PDF、PPT等格式),系统自动生成向量索引。
- 在应用中启用知识库,实现基于私有数据的问答。
四、进阶功能与发布
-
工作流编排
- 使用可视化画布构建复杂任务流程,例如结合搜索、数据解析和模型生成。
- 示例:用户输入 → 关键词提取 → 网页搜索 → 内容总结 → 生成回答。
-
应用发布
- 运行:生成独立访问链接,可直接分享。
- 嵌入网站:通过iframe或脚本代码集成到现有网页。
- API调用:提供RESTful接口,供外部系统集成。
五、常见问题与优化
-
部署问题
- 数据库权限错误:修改Docker数据卷配置,避免PostgreSQL目录权限问题。
- 端口冲突:检查5001(后端API)和3000(前端)端口占用情况。
-
性能优化
- 文件大小限制:修改
.env
中的UPLOAD_FILE_SIZE_LIMIT
参数提升上传限制。 - 模型响应慢:本地部署时调整超时参数,或切换为云端API模型。
- 文件大小限制:修改
六、学习资源与社区支持
- 官方文档:提供中文教程及API参考(docs.dify.ai)。
- 技术社区:GitHub Issues、CSDN博客及开发者社群活跃,可获取问题解答。
通过以上步骤,新手可快速完成Dify的部署与基础应用开发。如需深入探索高级功能(如Agent框架、企业级LLMOps),可参考官方进阶文档或社区案例。