前言
dify的强大在于其灵活性,主要体现在智能体和工作流上。它可以让一个没有编程能力的人通过简单学习,快速搭建Agent和自动化流程。就像拼积木一样。
我们可以通过智能体或工作流,自定义工具完成很多我们好玩的功能。本文前面主要是介绍一些组件,有编程能力的同学建议直接跳过。
报文篇幅较长,简单说下内容:
1,dify面板功能的介绍,(重点知识库里的内容)
2,dify工作流介绍,包括主要节点
3,Agent的应用
4,工作流应用
dify 主要功能
dify的主要应用功能已经在导航上显示了。
探索
在这个模块里,dify给我们内置了一些应用模板,以降低我们的学习使用成本。按照分类已经帮我们罗列好了,我们可以点击对应的分类查询,看中哪个鼠标放上去,点击添加到工作区即可。
工作室
-
1
工作室主要是当前工作空间下所有应用。 -
2
包含了聊天助手、Agent、工作流等。 -
通过
3
我们可以创建应用 -
通过
4
我们可以以探索里的模板创建应用 -
通过
5
我们可以导入
在 Dify 中,一个“应用”是指基于 GPT 等大语言模型构建的实际场景应用。通过创建应用,你可以将智能 AI 技术应用于特定的需求。
知识库
我们可以在知识库中上传企业或个人的文件资料,上传后通过设置分段格式向量化文档,
-
在
2
的位置我们可以创建知识库,可以是选择文档,也可以选择同步Notion或同步web站点 -
通过
3
我们可以让dify使用外部知识库,不过用外部知识库之前,我们得先通过4
配置,这个需要一定研发能力。
外部知识库的功能是我比较看中的,一般有点规模的企业,我建议自己建向量库,然后都过暴露api给应用平台,这样哪个平台好用我们就换哪个。
个人上传文档的知识库重点在于分段。
excel 分段
excel 如果按照单元格分段,需要把子分段设置为;
pdf和word分段
中文字分段以。
作为分段标识符会比较好,这个需要大家根据自己的文档结构不断地调整。使用默认
\n
句子都被截断了。
召回测试
- 当文档状态
1
变为可用,我们可以进行召回测试,验证文档的下效果。
-
1
我们输入测试问题 -
2
设置检索方式 -
3
我们可以看到匹配到的内容以及socre,点击查看详情4
检索设置,我们可以设置
向量检索
、全文检索
、混合检索
我们可以通过不断地测试看下哪种检索方式在这个知识库中效果比较好,然后选择设置对应的方式。
其中需要住下TopK和Score:
-
TopK 代表按相似分数倒排时召回分段的最大个数
。TopK 值调小,将会召回更少分段,可能导致召回的相关文本不全;TopK 值调大,将召回更多分段,可能导致召回语义相关性较低的分段使得 LLM 回复质量降低。 -
召回阈值(Score)代表允许召回分段的最低相似分数。
召回分数调小,将会召回更多分段,可能导致召回相关度较低的分段;召回分数阈值调大,将会召回更少分段,过大时将会导致丢失相关分段。
工具
dify的工具是用来扩展LLM能力的,是对外部功能的封装,比如搜索、绘图、飞书、月缺等等。就是没有看到对mysql的调用工具。
工具有dify内置的应用,也有三方工具,也可以自定义工具。
工作流也可以发布为一个工具。
dify工作流(基础介绍)
工作流通过将复杂的任务分解成较小的步骤(节点)降低系统复杂度,减少了对提示词技术和模型推理能力的依赖,提高了 LLM 应用面向复杂任务的性能,提升了系统的可解释性、稳定性和容错性。
一个完整的工作流,必须具备开始和结束两个节点。
Dify 工作流分为两种类型:
-
Chatflow:面向对话类情景,包括客户服务、语义搜索、以及其他需要在构建响应时进行多步逻辑的对话式应用程序。
-
Workflow:面向自动化和批处理情景,适合高质量翻译、数据分析、内容生成、电子邮件自动化等应用程序。
变量
在dify中变量一共有三种、分别是系统变量、环境变量和用户变量。
系统变量
系统变量指的是在 Chatflow / Workflow 应用内预设的系统级参数,可以被其它节点全局读取。系统级变量均以 sys
开头。
主要有:
-
sys.user_id
:每个用户在使用工作流应用时,系统会自动向用户分配唯一标识符,用以区分不同的对话用户 -
sys.app_id:
系统会向每个 Workflow 应用分配一个唯一的标识符 -
sys.workflow_id
用于记录当前 Workflow 应用内所包含的所有节点信息 -
sys.workflow_run_id
用于记录 Workflow 应用中的运行情况
chatflow会额外多一些,不做具体解释。
环境变量
环境变量用于保护工作流内所涉及的敏感信息,例如运行工作流时所涉及的 API 密钥、数据库密码等。它们被存储在工作流程中,而不是代码中,以便在不同环境中共享。在流程编排的时候,通过
1
的位置添加。
用户变量
当我们需要用户传入一些特定的信息的时候,可以通过添加变量来实现,在开始节点对应
1
的位置添加。
节点
节点是工作流中的关键构成,通过连接不同功能的节点,执行工作流的一系列操作。在dify的工作流中一共有下面几种类型的节点。
我们可以通过画布左下角的
1
的位置添加节点和工具
开始节点
1,所有的节点都可以通过这个位置修改名称,建议改成对应的功能名称
2,通过+
号新增变量
3,我们可以选择变量的类型,设置变量名称、长度、是否必填等。
LLM 节点(重点)
具备调用大语言模型的能力。
这里面有下面这些操作模型选择: 通过1可以选择使用哪个模型(模型供应商配置,参考前一篇)
模型参数: 通过点击5,弹出区域6,我们可以配置模型的温度、TopP,最大标记、回复格式 等。
上下文: 在2
的位置,我们想向LLM提供的背景信息,内置固定的信息。
提示词:在 3
的位置,默认只有一个SYSTEM
提示词,我们可以通过4添加消息
,来添加USR
提示词和ASSISTANT
提示词。提示词中我们可以通过{
获取变量,通过/
获取上下文,
系统提示词我们可以通过7
对应的位置自动生成填充。
我们可以设置失败重试策略。
知识检索(重点)
使用已经创建的知识库。
1,通过1
的位置,设置查询知识库的变量
2,我们2
的位置添加知识库
3,通过3
的位置设置召回策略
下图为召回策略可设置的参数。
问题分类
问题分类主要是通过大模型,将用户的问题,进行意图分类,普通的条件分类为a=x 走什么,a=y走什么,都是具体的判断,逻辑。
比如我们通过这个是感知用户售后问题,还是产品使用咨询。然后匹配到相关的知识库。
-
通过
1
我们可以选择模型 -
通过
2
我们选择用户输入的内容 -
通过
3
我们设置分类类型 -
通过
4
我们可以添加分类 -
通过
5
我们可以填写分类提示词
通过分类,我们可以指向不同的知识库。
条件分支(重点)
主要用于流程节点中的逻辑判断。功能也很丰富,自主性特别高。
-
通过
1
我们可以选择条件的变量 -
通过
2
我们可以选择逻辑条件,中文意思很直白了 -
通过
3
我们设置条件值 -
通过
4
可以添加条件 -
多个条件的时候,可以通过
5
设置条件的逻辑关系 -
通过
6
可以添加其他逻辑
迭代
一般用于多任务的处理(每个任务的处理流程必须一样)。
-
1
迭代内部可以认为是一个子流程 -
2
迭代的输入是一个多个任务(数组形式) -
3
迭代的输出也是一个数组(每个输出包含是哪个输入,可以用于区分) -
4
可以开启并行,同时执行几个 -
5
根据自己的需要,错误了是终结,还是继续
代码执行
代码执行,给我们带来了很大的灵活性,官方给的场景是结构化数据处理,数学计算、拼接数据。
代码的执行是有风险的,为了确保安全,dify使用sandbox
执行代码,不能使用消耗大量系统资源或引发安全问题的操作。比如访问文件系统、进行网络请求、执行操作系统级别的命令。
也就意味着不能直接写代码连接数据库了。
-
通过
123
可以添加输入变量(每个节点内的) -
通过
4
我们可以写PYTHON3
或JAVASCRIPT
代码来执行相应的逻辑 -
通过
5
我们可以设置返回的数据类型 -
通过
6
我们可以设置重试机制,也就是失败以后,可以重试几次,以及每次重试之间的时间间隔
模板转换
这个是使用摸版引擎记性数据处理,代码执行也能实现。
变量聚合
将多路分支的变量聚合为一个变量,以实现下游节点统一配置。一般用于多个分支处理。
比如我有两个知识库A和B,我需要同时查A和B,查到以后,我需要将AB的数据整合,然后给大模型,这个就是这个作用。
文档提取器(重要)
用来提取用户上传上来的文档的内容,然后将提取到的文本内容给LLM处理。
参数提取
从指定的地方获取数据后,将数据结构化。
HTTP请求(重要)
这个让dify具备一切的可能性。
举两个例子:
-
dify没有权限管理,我们可以在我们的业务系统里给每个人生成一个密钥,通过http调用来鉴权。
-
dify不能直接连接数据库,我们可以通过暴露接口实现
Agent应用
我们在工作室中,通过,从应用模板创建。
-
通过
1
选择Agent -
通过
2
选择旅游
改下应用名称即可。
-
我通过kimi把原提示词翻译成了中文,注意变量名,不能翻译
-
google搜索需要授权,我没有,换个其他的。
-
通过
1
删除google搜索插件(最后大家看提示词里,只用了wikipedia_search,但是在跑的时候可以动态切换,应该是有什么机制) -
通过
2
添加插件, -
选择
3
内置下面的4
搜索里的5  通过
1、2、3`切换下模型
开场白是英文的,我们通过点击1
管理设置下。
- 通过
1
我们可以设置开场白,把英文转成中文
这里也有一些其他的功能,比如语音转文字、使用知识库或搜索的时候,显式源文档的引用
- 在wikipedia中没有搜索到,它会自动切换到下一个。
工作流应用
使用场景梳理
使用工作流,首先我们要知道我们要用工作流解决什么问题。梳理出相应的流程,然后再去落地。
我当时想到两个场景:
- 1,用户输入问题-> 大模型提炼关键词->然后查询数据库->将结果和问题给大模型->输出结果
- 2,用户输入问题->同时搜索本地知识库+联网搜索-> 代码整合->大模型推理->输出结果
在实验的过程中,场景1
因为沙箱的安全机制,被拦截了,找了下通过改源码,可以解决这个问题,不过沙箱以后就得自己本地打镜像了。
场景2
在搜索的时候,没有google和bing的key,用的searchapi遇到dns解析的问题,这个大家在玩的时候只用知识库就行了。然后搜索到返回的几个url链接,还得解析,比较麻烦,最后只连知识库了。
创建工作流
创建一个空白应用,选择
1
工作流,填写应用名称2
和描述3
,点击4
创建
添加查询入参
因为我们要询问,所以先在开始节点添加一个变量query
用来接收我们的询问
添加知识检索
增加知识检索节点,并把开始节点的
query
设置到查询变量1
里,点击2
的位置添加知识库,通过3
可以设置召回策略。
LLM设置
我们点击上下文,然后可以看到知识检索1
的的输出result 2
设置系统提示词
添加结束节点
最后流程如下:
试运行
1
点击左上角的运行,输入页签2
,填写问题3
,点击开始运行4
运行结束以后,我们点击跟踪
1
,可以看到各个节点的执行明细2
,可以看到大模型数据结果3
。
发布
我们可以直接运行,也可以发布为工具。
直接运行,直接把链接分享给同事,就能共用。(别忘了防火墙设置。)
最后的最后
感谢你们的阅读和喜欢,作为一位在一线互联网行业奋斗多年的老兵,我深知在这个瞬息万变的技术领域中,持续学习和进步的重要性。
为了帮助更多热爱技术、渴望成长的朋友,我特别整理了一份涵盖大模型领域的宝贵资料集。
这些资料不仅是我多年积累的心血结晶,也是我在行业一线实战经验的总结。
这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。如果你愿意花时间沉下心来学习,相信它们一定能为你提供实质性的帮助。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

大模型知识脑图
为了成为更好的 AI大模型 开发者,这里为大家提供了总的路线图。它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
经典书籍阅读
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
实战案例
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
面试资料
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
