【大模型】 大模型Agent

【大模型】 大模型Agent

AI Agent 介绍

Agent的主动模式相对于传统软件或机械的被动模式来说,无疑带来了革新。

只需给Agent设定能力范围,让它自主地发现问题、设定目标、构思策略、挑选方案、执行任务并进行检查更新。

  • AI Agent 架构图
    在这里插入图片描述

  • AI Agent技术包括四大核心部分:

  1. Action module:Agent在此阶段需要和人类一样,对任务执行中的背景资料和具体要求保持关注,这一环节实质上是构建角色定位的数据集合。

  2. Memory module:其功能是信息的存储与检索,分为短期记忆和长期记忆两种形式。短期记忆基本上等同于模型处理的即时上下文,长期记忆则通常来源于外部存储如向量数据库。

  3. Planning module:它仿照人类处理问题时将复杂问题拆分为多个小问题并逐一击破的策略,将复杂任务细化为更易于管理和解决的小任务或小目标。

  4. Tools module:AI Agent要学会使用工具。AI Agent与其所处环境的直接互动。涉及到使用应用程序接口、激活其他功能模块或实施具体操作,具体执行方式将依据任务的具体需求而定。

Agent依赖大模型的理解能力

以上模块中都要用到Prompt。好的prompt能更好激发大模型的能力,大模型的理解能力才是Agent系统的核心,能将复杂任务拆解成已有的工具指令,并能够正确调用。

评估AI Agent

    1. 领域专家对AI的答复进行打分

    当缺乏数据和人为标注时,不得不依赖个人的专业判断。让领域专家对AI的答复进行打分,因为需要人工参与,成本较高,主要在早期阶段使用。

    1. 端到端的任务完成情况来评价AI Agent

    在数据充足的情况下,我们可以根据端到端的任务完成情况来评价AI Agent的效能。

    1. 使用标准数据集评估

    可以使用标准数据集,例如ALFWorld、HotPotQA和HumanEval等,用于衡量AI Agent在决策制定、问题解答和编程等不同方面的表现。

Agent的问题

  • 1.在未知领域中的泛化能力

    1. Agent 的过度交互问题

    为了完成任务,Agent 需要与环境进行大量复杂多步的交互,而一些研究也表明 Agent 很有可能会陷入到不断交互的循环陷井之中。

    1. 个性化 Agent难
    1. Agent 安全问题
    1. 外部API质量影响Agent效果
    1. 多Agent协作
  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

szZack

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值