一键解锁AI生产力,Dify私有部署联合Ollama,打造专属本地模型!

工欲善其事,必先利其器。AI 是未来十年生产力的核心工具,要让 AI 真正转化为生产力,而不仅仅是围观一时的热潮。如果你对 AI 也很感兴趣,欢迎关注,共同探索 AI 的无限可能,与渔夫一起成长!

今天聊聊AI智能体,同时也简单的将 Dify 本地私有化部署,接入 Ollama 部署的本地模型。

AI智能体是什么?

AI智能体是一种具备AI能力、感知、推理、决策和行动能力的计算系统,它能够自主与环境交互,完成特定任务。

能够通过感知环境获取信息,分析并做出决策,然后执行相应的行动,有时还能通过学习不断优化自己的行为,尽可能达到预期结果。

Dify 是什么?

Dify 它是一个开源 LLM 应用开发平台。拥有直观的界面结合了 AI 工作流、RAG 管道、代理功能、模型管理、可观察性功能等,让您可以快速从原型开发到生产。

Dify 工作流

开始学习之前,我们一定要很清楚知道什么是工作流?

图片

上面这张图,就是一个工作流,里面的每一个框框就是一个小的节点,节点与节点之间的连接就是数据的流向。

(1)Dify官方释义 工作流是通过将复杂的任务分解成较小的步骤(节点)降低系统复杂度,减少了对提示词技术和模型推理能力的依赖,提高了 LLM 应用面向复杂任务的性能,提升了系统的可解释性、稳定性和容错性。

工作流优缺点:

  • 优点:把目标场景的任务分解成多个节点,每个节点完成一个任务,然后通过数据流连接起来,其确保逻辑清晰易懂,提升了结果的准确性。
  • 缺点:对于复杂场景时,配置工作流也是非常耗费大量时间,设计过程相对比较复杂,需要开发者对业务流程和各类工作流节点的熟悉,否则很难设计出好的工作流。

(2)通俗释义 举例:假设我们要为家人准备一顿晚餐,整个过程可以看作一个复杂的任务。为了完成这个任务,我们可以将其分解成多个步骤(节点),并通过每个步骤之间的连接(数据流)来完成整个晚餐的准备工作。

节点和数据流:

确定菜单 → 检查食材 → 去超市购物 → 准备食材 → 烹饪 → 摆盘和上桌 → 清理厨房 → 干净整洁的厨房。

可以看出,工作流就是为了完成某个目标,所拆解的一系列步骤,最后把这些步骤组合起来形成的一种流式结构。

优缺点:

  • 优点:通过将复杂的晚餐准备过程分解为多个步骤,整个流程变得更加清晰易懂,每个步骤都有明确的任务,确保了晚餐的成功准备。
  • 缺点:如果准备的晚餐非常复杂,比如有很多道菜和不同的烹饪方法,那么配置这个工作流可能会非常耗时。设计好每个步骤需要对烹饪流程和食材准备非常熟悉,否则很难完成所有工作。

工作流应用场景

(1)释放生产力

图片

(2)商业服务

图片

Dify 部署方式

Dify官网提供2种部署方式:Docker compose 和 本地源码启动。

(1)Docker compose 方式

你需要安装 docker ,如果还没不知道如何安装可以参考官网安装文档。

系统要求,看看自己的配置情况:

图片

1.1 克隆 dify 代码仓库,小白确保你本地电脑已经安装了 git 命令。

git clone https://github.com/langgenius/dify.git

1.2 启动 dify

cd dify/docker
cp .env.example .env
docker compose up -d

等待镜像下载

图片

1.3 部署结果:

图片

常见问题:无法拉取镜像,解决方案:

  • 1)挂个全局代理试试
  • 2)更换镜像

如果问题无法解决的,可以进裙交流。

1.4 最后检查是否所有容器都正常运行:

docker compose ps

图片

1.5 更新 Dify

进入 dify 源代码的 docker 目录,按顺序执行以下命令:

cd dify/docker
docker compose down
git pull origin main
docker compose pull
docker compose up -d

在浏览器中输入 http://localhost 访问 Dify,点击设置管理员,邮箱密码就可以。

图片

然后登录即可了

图片

图片

(2)源码启动

可参考官网启动手册:https://docs.dify.ai/v/zh-hans/getting-started/install-self-hosted/local-source-code。

在 Dify 中接入 Ollama

  1. 下载 Ollama
  2. 访问 https://ollama.ai/download,下载对应系统 Ollama 客户端。
  3. 运行 Ollama 并与 Llava 聊天
ollama run llava # 或 ollama run llama3.1

图片

启动成功后,ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost:11434 访问。

图片

其他模型可访问 Ollama Models 了解详情。

\4. 在 设置 > 模型供应商 > Ollama 中填入:

图片

配置完成后,添加保存,这时它进行调用请求测试。

配置Bash URL地址:http://host.docker.internal:11434

图片

图片

\5. 创建聊天机器人

这次先简单创建一个聊天机器人,作为这篇文章小案例,后续我会分享更多工作流。

第一步:创建聊天机器人

图片

第二步:指定模型

图片

第三步:发布运行该聊天机器人

图片

今天就简单熟悉到这里,Dify提供私有化部署,对于数据保密非常高的行业是非常友好,而且功能非常丰富。如果你所在行业公司有需要,建议在生产上使用k8s来部署Dify,它也依赖很多中间件,也可以外接存储等。

图片

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
在这里插入图片描述

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。

在这里插入图片描述
在这里插入图片描述

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

在这里插入图片描述

👉4.大模型落地应用案例PPT👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(全套教程文末领取哈)

在这里插入图片描述

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。

在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 13
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值