无代码 GenAI 代理工作流程编排:带有本地 Mistral AI 模型的 AutoGen Studio

欢迎来到雲闪世界

在本文中,我们将重点介绍 AutoGen Studio 直观、无代码平台与本地集成的 Mistral AI 模型的革命性融合。这种结合不仅使 AI 更容易应用于实际;它还促进了我们在许多实际行业工作流程中与不同的生成 AI 代理进行交互、部署和受益。

带有本地 Mistral AI 模型的 AutoGen 框架

浏览 AutoGen Studio 的界面: Autogen Studio 安装 AutoGen Studio 的源代码在这里,可以通过 pip 安装。 pip 安装 autogenstudio 运行 Autogen Studio 安装后,在终端中输入以下内容来运行 Web UI: autogenstudio 用户界面- 港口 8082

添加图片注释,不超过 140 字(可选)

AutoGen Studio 提供简化且用户友好的界面,方便创建和管理多代理 AI 应用程序。界面分为几个部分,包括技能、模型、代理和工作流,每个部分在应用程序开发中都发挥着不可或缺的作用。 技能 在技​​能部分,用户可以开发和存储代理将用来解决任务的 Python 函数。这是一个定义和完善应用程序功能的编程环境。

添加图片注释,不超过 140 字(可选)

模型 模型部分是用户可以配置和管理 AI 模型的地方,包括 GPT-4 和其他本地或自定义模型。 用户可以设置 Mistral AI 等模型,这表明该工作室支持本地 AI 模型集成和管理。这种灵活性允许使用 OpenAI 的 GPT-4 等强大的模型,以及针对特定任务量身定制的专有或专用模型。

添加图片注释,不超过 140 字(可选)

代理 代理部分用于配置可重复使用的代理。用户可以创建和定义各种代理的角色,例如本地助理、主要代理和用户代理,并协调它们在应用工作流中的交互方式。

添加图片注释,不超过 140 字(可选)

工作流程 工作流程部分是魔法发生的地方。用户可以设计复杂的工作流程来定义系统如何​​处理任务。这是所有组件汇集在一起​​的地方:技能提供逻辑,模型提供人工智能的智能,代理根据任务采取行动,工作流程将所有这些连接到一个连贯的系统中。

添加图片注释,不超过 140 字(可选)

该平台的界面直观,各部分标记清晰,布局直观,导航简单。无论是添加新代理、模型还是技能,流程都很简单,通常只需点击几下即可。使用鲜艳的色彩和现代设计元素,体验愉快且易于使用。 本地 Mistral AI 模型集成 将本地 Mistral AI 模型集成到 AutoGen Studio 生态系统中非常简单直接。用户可以将本地模型添加到工作室,并定义它们如何与应用程序内的其他组件交互。这对于需要结合 GPT-4 vision、GPT 3.5、GPT 4 turbo 等多模态模型和其他本地模型(如 Mistral AI)功能的用户特别有用。 总而言之,AutoGen Studio 是一个全面且易于构建的多智能体 AI 驱动应用程序的工具,可容纳各种 AI 模型和自定义的用户定义技能,使其成为开发人员和企业的多功能选择。 设置本地 Mistral AI 模型: 设置本地 Mistral AI 模型涉及几个步骤,每个步骤都为系统在本地运行大型语言模型(例如 Ollama 的 Mistral 模型)做好准备。以下是每个步骤的说明以及我们需要每个步骤的原因:

  1. 安装 Ollama:Ollama 是一个提供对大型语言模型的访问的平台。安装 Ollama 是第一步,因为它是 Mistral 模型运行的环境。它允许您自定义和创建自己的模型或运行现有模型,如 Llama 2、Code Llama 和 Mistral。您可以在此处下载 ollama:https://ollama.ai/

添加图片注释,不超过 140 字(可选)

2. 运行 Ollama Mistral:在 Ollama 平台上执行以下命令启动 Mistral 模型,使其准备好处理请求。此命令初始化设置模型的进程,加载必要的数据,并启动处理查询的服务。 奥拉马河米斯特拉尔河 2. 安装 LiteLLM:LiteLLM 库是一种便于从 http 端点运行语言模型的工具。安装或升级 LiteLLM 可确保您拥有最新版本的库,这对于兼容性和功能性来说非常重要。 pip 安装 litellm——升级 3. 安装 Gunicorn:Gunicorn 是用于 UNIX 系统的 Python WSGI HTTP 服务器,用于运行 Python Web 应用程序。它是运行 LiteLLM 代理的先决条件,允许您向语言模型发出本地 HTTP 请求。 pip 安装 gunicorn 4. 使用 Ollama/Mistral 模型运行 LiteLLM:此步骤实际上初始化模型并使其准备好运行。此命令告诉 LiteLLM 使用 Ollama 提供的 Mistral 模型。它为交互准备模型,允许您开始进行查询和接收响应。 在此过程结束时,本地 Mistral 模型从 0.0.0.0:8000 启动,有 1 名工作人员。 litellm——模型ollama/mistral 这些步骤中的每一个都是设置一个完整的工作环境所必需的,在这个环境中,AI 模型可以在本地进行交互。这种本地设置允许开发人员测试和集成 AI 模型,而无需不断与云服务通信,这有利于提高开发速度、离线功能和节省 API 调用成本。

添加图片注释,不超过 140 字(可选)

使用 AutoGen 和 Mistral AI 进行工作流程编排: 在我们希望编写 Python 脚本来绘制正弦波并将其保存为“sine_wave.png”文件的场景中,AutoGen 和 Mistral AI 可以一起使用来创建简化的工作流程。AutoGen Studio 用作构建和管理多代理应用程序的界面,而 Mistral AI 通过其本地模型提供处理能力。 以下是利用两个平台的功能进行编排的工作方式: 1.创建工作流程:

  • 在 AutoGen Studio 中,启动了一个新的工作流程,专门用于生成正弦波图像的特定任务。

  • 我们为工作流配置一个名称,例如“本地 mistral 代理工作流”。

  • 工作流规范包括发送方和接收方代理,其中“userproxy”可以是发起请求的发送方,“primary_assistant”是处理请求并提供输出的接收方。

  • 用户代理的作用是与用户交互并执行由primary_assistant生成的代码。如果代码中有任何错误,则将错误发送给primary_assistant代理。

  • primary_assistant 代理由本地 Mistral AI 模型赋能,会根据我们的场景生成代码,若出错则根据用户代理发送的执行错误重新调整代码。

添加图片注释,不超过 140 字(可选)

2.模型配置:

  • AutoGen Studio 中建立了一个名为“mistral local model”的模型,用于与 Mistral AI 进行交互。

  • 模型的 API 端点将配置为 Mistral AI 正在运行的本地服务器地址(例如,http://0.0.0.0:8000)。

  • 此设置允许 AutoGen Studio 将数据发送到 Mistral AI 模型并接收处理后的结果。

添加图片注释,不超过 140 字(可选)

3. 运行会话:

  • 在 AutoGen Studio 的“Playground”界面中,用户通过选择“本地 mistral 代理工作流”来开始新会话。

  • 用户输入命令或请求来生成正弦波图。

  • 用户代理将请求发送给主助理代理,后者利用 Mistral AI 模型。它生成 Python 脚本,然后用户代理执行代码。如果发生错误,则将其发送回主助理代理。主助理代理重新调整代码并将其发送回用户代理,直到代码正常运行并创建正弦波绘图图像。

添加图片注释,不超过 140 字(可选)

4. 结果与回顾:

  • 一旦 Mistral AI 运行脚本,就会生成结果:“sine_wave.png”文件并保存到磁盘。

  • AutoGen Studio 界面显示会话的进度和结果,其中包括两个文件:“sine_wave.png”文件和生成的用于绘制 sine_wave 的 python 代码。

  • 然后,用户可以查看输出,发布工作流程以供更广泛地使用,如果我们想重新开始,则可以删除模型,或者进一步迭代以完善脚本和工作流程的参数。

添加图片注释,不超过 140 字(可选)

结论: AutoGen Studio 与本地 Mistral AI 模型相结合,在编排 GenAI 代理的工作流程方面取得了重大进展。这种架构有利于 AutoGen Studio 的直观设计和 Mistral AI 的出色性能,构建了一个多代理能够发挥作用的环境。 将 AutoGen Studio 与本地 Mistral AI 模型结合使用的优势:

  • 轻松集成:本地 Mistral AI 模型可轻松集成到 AutoGen Studio,从而简化了将不同 LLM 模型整合到一次部署中的过程,从而简化了开发过程。

  • 定制化和灵活性:开发人员可以根据特定要求定制 AI 模型,提供完美满足单个项目不同需求的定制解决方案。

  • 增强性能:使用 AutoGen 在本地运行 AI 模型可减少延迟并缩短响应时间,这对于实时应用程序和敏感工作流程至关重要。

  • 数据隐私和安全: AI 模型的本地执行可以完全控制数据,这对于不能暴露给外部环境的敏感或专有信息来说是一个关键因素。

  • 成本效益:通过最大限度地减少对基于云的 AI 服务的依赖,组织可以显著削减与数据传输和 LLM API 使用相关的成本。

  • 离线功能:本地 Mistral AI 模型确保系统即使在没有互联网连接的情况下仍能运行,从而实现 AI 驱动解决方案的离线功能。

  • 使用 UI 构建复杂的 AI 工作流:用户可以轻松设计精心设计的 AI 驱动的工作流,利用 AutoGen Studio 的无代码界面来可视化和管理整个过程。

在本文中,AutoGen Studio 与本地 Mistral AI 模型的集成是 GenAI 工作流程领域的一次变革性发展。它提供了一种用户友好、灵活且经济高效的解决方案,不仅满足了对高级 AI 应用程序日益增长的需求,而且还使 AI 应用程序的创建变得比以往任何时候都更加容易。

感谢关注雲闪世界。(Aws解决方案架构师vs开发人员&GCP解决方案架构师vs开发人员)

订阅频道(https://t.me/awsgoogvps_Host) TG交流群(t.me/awsgoogvpsHost)

  • 6
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值