官方网址:https://dify.ai
Dify 是一个开源的大型语言模型(LLM)应用开发平台,它提供了一个直观的用户界面,结合了AI工作流、检索-生成(RAG)管道、智能体(Agent)、模型管理、可观测性等功能,使得用户能够快速地从原型开发过渡到生产阶段。以下是Dify的一些核心功能:
-
工作流:用户可以在画布上构建和测试强大的AI工作流程,利用Dify提供的各种功能。
-
全面的模型支持:Dify能够与多种专有和开源的LLMs以及多种推理提供商和自托管解决方案无缝集成,包括但不限于GPT、Mistral、Llama3以及任何与OpenAI API兼容的模型。
-
Prompt IDE:提供了一个直观的界面,用于制作提示、比较模型性能,以及向基于聊天的应用程序添加其他功能,如文本转语音。
-
RAG Pipeline:提供了广泛的RAG功能,包括文档摄入到检索的整个过程,并且支持从PDF、PPT和其他常见文档格式中提取文本。
-
Agent智能体:用户可以基于LLM函数调用或ReAct定义Agent,并为Agent添加预构建或自定义工具。Dify为AI Agent提供了50多种内置工具,例如谷歌搜索、DALL·E、Stable Diffusion和WolframAlpha等。
-
LLMOps:允许用户随时间监视和分析应用程序日志和性能,根据生产数据和标注持续改进提示、数据集和模型。
-
后端即服务:Dify的所有功能都带有相应的API,使得用户可以轻松地将Dify集成到自己的业务逻辑中。
Dify还提供了与其他平台的功能比较,包括编程方法、支持的LLMs、RAG引擎、Agent、工作流、可观测性、企业功能(如SSO/访问控制)以及本地部署的能力。
Dify提供云服务,允许用户无需设置即可尝试使用,包括在沙盒计划中提供的200次免费的GPT-4调用。对于希望在本地部署的用户,Dify提供了社区版,用户可以按照入门指南快速在本地环境中运行Dify。对于企业或组织,Dify提供额外的企业功能,并可以通过电子邮件讨论企业需求。
Dify还提供了在AWS上一键部署到用户自己的AWS VPC的高级版,适合使用AWS的初创公司和中小型企业。用户可以通过在GitHub上给Dify Star来接收新版本的通知。
安装Dify社区版的系统要求包括至少2核心的CPU和至少4GB的RAM。快速启动的方法是运行Dify的docker-compose.yml文件,这需要用户的机器上已经安装了Docker和Docker Compose。用户还可以根据需要自定义配置,包括更新.env文件中的值和调整docker-compose.yaml文件。
此外,Dify支持使用Helm Chart或YAML文件在Kubernetes上部署,以及使用Terraform一键部署到Azure。
对于想要贡献代码的用户,Dify提供了贡献指南,并鼓励通过社交媒体、活动和会议来支持Dify的分享。Dify还在寻找贡献者来帮助将Dify翻译成除了中文和英文之外的其他语言。
社区与支持方面,Dify欢迎用户为Dify做出贡献,包括提交代码、问题、新想法,或分享基于Dify创建的AI应用程序。用户可以在Github Discussion、GitHub Issues、电子邮件支持、Discord、Twitter以及商业许可咨询中找到相应的支持。
对于安全问题,Dify建议用户不要在GitHub上发布,而是发送问题至security@dify.ai,以便得到更细致的解答。
最后,Dify遵循Dify Open Source License开源协议,该许可证本质上是Apache 2.0,但有一些额外的限制。