一、介绍
本文通过介绍Dify的基础使用教程,实现一个简单的聊天助手,并介绍相关的页面知识,通过访问API,使用ApiFox进行接口调用和功能测试。
Dify+DockerCompose在Linux系统下的私有化部署见:https://blog.csdn.net/2401_84926677/article/details/154205900
二、详细步骤
1. 启动Dify并登录
a. 首先打开虚拟机,通过MobaXterm连接虚拟机,启动Dify容器

b. windows系统通过浏览器访问登录Dify控制台

2. 配置大模型
a. 进来后点击右上角的头像---设置---模型供应商,进行模型选择与配置

b. 选择模型插件,点击安装


c. 配置刚安装好的大模型

d. 点击从阿里云百炼获取API Key

e. 创建API Key,复制粘贴实现配置

配置成功!!!

f. 配置Ollama本地模型,首先在Dify里安装Ollama插件

g. 然后点添加模型

h. 打开本地部署的Ollama,下载或使用已有的模型,提供Ollama地址
Ollama本地部署流程见:https://blog.csdn.net/2401_84926677/article/details/151109011

http://localhost:11434/api/chat


bge-large模型是文本嵌入模型,仅用于将文本转换为向量表示(如计算语义相似度),不支持对话(chat)功能
使用ApiFox调用bge-large模型的/api/embeddings接口
模型对输入的文本 “how many r in the word strawberry?” 生成了数值化的嵌入向量

(我这里Ollama是windows本地部署,而Dify是Linux服务器部署)所以需要在windows输入ipconfig查看ipv4无线局域网地址,而不是使用localhost本机地址:
192.168.100.100(这是宿主机在局域网中的实际地址,Docker 容器和其他设备可通过该地址访问 Ollama)。
输入以下指令,临时设置环境变量,让 Ollama 监听所有网络接口(0.0.0.0),而非仅本地 localhost,此时其他设备 / 容器可通过你的 IP 访问 Ollama 服务
set OLLAMA_HOST=0.0.0.0:11434 && ollama serve

i. 输入信息完成配置

配置成功!!!
j. 点击系统模型设置,为每个设置提供对应的模型

3. 工作室-创建空白应用

4. 提示词编写
进入刚刚创建好的空白聊天助手中,进行提示词的编写:

使用AI帮助我们拓展和规范化提示词的书写:

5. 功能测试
对配置好的聊天助手进行询问:


每次提问回答都会消耗token,当你注册新用户创建api key时会默认分配一定量的token免费试用
如果消耗完则会收费才可使用,当然也有一些免费的大模型可以使用,例如硅基流动的部分大模型和你使用Ollama本地部署的大模型可以免费使用。

同时也提供了许多功能可供我们选择


6. 应用发布


7. 日志与标注

8. 检测

9. 发布方式

a. 运行
如果是在开放的服务器上部署,那么这将提供用户可以访问的地址,进行访问

b. 嵌入网站(3种方式)


c. 在搜索中打开
d. 访问API(最常用)
点击访问API跳转到此页面:

首先Dify提供了一个基础的URL:

接下来需要鉴权一下,点击右上角的API密钥,创建密钥:


(保存好的你密钥,不要暴露在前端代码或者明面处)
然后我们可以看到有很多API调用接口,最常见的是会话接口的调用

接下来我们打开Api Fox通过URL+接口进行对话功能的调用:

发送请求,获得响应:





457

被折叠的 条评论
为什么被折叠?



