264页 Agent 综述!MetaGPT、Mila、斯坦福、耶鲁、谷歌半年共同撰写

2025 年,Agent 的热度持续升高,无论是 MCP 协议的普及让整个 Agent 的生态被打开,还是 A2A 协议的发布,让我们对未来多 Agents 的生态充满了期待。但目前大部分 Agent 仅是基于 LLM 的简单延伸,距离真正的通用的智能尚有距离,在目前的设计下,面对复杂的真实世界,Agent 面临着推理规划、长期记忆、自主学习以及安全对齐等核心能力不足的问题。

为了明确定义我们距离通用智能的差距,以此来构建下一代 Agent,*MetaGPT & Mila* 联合全球范围内 20 个顶尖研究机构的 47 位学者,共同撰写并发布了长篇综述Advances and Challenges in Foundation Agents: From Brain-Inspired Intelligence to Evolutionary, Collaborative, and Safe Systems》(arXiv:2504.01990)。

img

研究来自 MetaGPTMontréal & Mila人工智能研究所南洋理工大学美国阿贡国家实验室悉尼大学宾夕法尼亚州立大学微软亚洲研究院伊利诺伊大学厄巴纳-香槟分校香港科技大学南加州大学耶鲁大学斯坦福大学佐治亚大学俄亥俄州立大学阿卜杜拉国王科技大学杜克大学香港理工大学谷歌 DeepMind 以及 **加拿大高等研究院(CIFAR)**等众多研究者的集体智慧与前瞻思考。

其中特工滴滴,特工 Alpha,特工鲸鱼也在作者列表中。

img

在这篇论文中,我们首次定义并提出了****基础 Agent(Foundation Agent)**** 这一新概念框架。Foundation Agent 并非某个特殊的 Agent,而是一个技术蓝图。它指引我们如何构建一个由复杂认知、多层记忆、世界模型、奖励&价值、情绪&动机、多模感知、行动系统等模块化组件构成的智能系统。

img

img

*第一部分:Agent 的核心组件 - 构建认知基石*

一个强大的 Foundation Agent 必然是一个复杂的系统,由多个相互协作的核心组件构成。我们借鉴了认知科学和神经科学中对大脑模块化功能的理解。其中的七个关键组件,它们共同构成了 Agent 的认知架构:

img

*1. 认知核心 (Cognition Core)*

这是 Agent 的“大脑”,负责最高层次的决策、推理和规划。与当前主要依赖 LLM 进行“思考”的 Agent 不同,Foundation Agent 的认知核心可能是一个更复杂的系统,集成了多种推理能力(如逻辑推理、因果推理、常识推理)和规划算法(如任务分解、层级规划、长期目标管理)。它需要能够处理不确定性,进行反思和元认知(思考自己的思考过程),并根据环境反馈和内部状态动态调整策略。

这要求认知核心不仅仅是模式匹配,更要具备深刻的理解和灵活的问题解决能力。

img

*2. 记忆系**统 (Memory System)*

记忆是智能的基础。当前的大部分 Agent 只有有限的短期记忆(如 Prompt 中的上下文)或简单的外部向量数据库。Foundation Agent 则需要一个更复杂、更接近生物体的多层次记忆系统。这个部分我们探讨了短期记忆、长期记忆与工作记忆等不同类型,包含情景记忆、语义记忆和程序记忆等细分领域。高效的记忆检索、存储、遗忘和泛化机制对于 Foundation Agent 至关重要。

如何设计能够支持持续学习、避免灾难性遗忘,并能高效利用相关信息的记忆系统,目前来说是一个很大的挑战。

img

*3. 世界模型 (World Model)*

Agent 还需要能理解它所处的环境以及行为可能产生的后果。世界模型正是对环境动态的理解。它可以帮助 Agent 进行预测(如果我采取行动 A,会发生什么?)、规划(为了达到目标 B,我应该采取什么行动序列?)和反事实推理(如果当初采取了不同的行动,结果会怎样?)。

而一个强大的世界模型需要能够处理物理规律、社会规范、其他 Agent 的行为等多方面信息,并且能够根据新的观测数据不断更新和完善。

img

*4. 奖励与价值系统 (Reward and Value System)*

目标对人来说很重要,对 Agent 来说也是。奖励系统负责评估 Agent 的行为表现,并提供学习信号。这不仅仅是简单的奖励,可能涉及到多目标优化、内在动机(如好奇心、探索欲)以及对未来价值的预估。价值系统则负责评估不同状态或行动的长期价值,指导 Agent 的决策。

如何设计能够引导 Agent 学习复杂行为、符合人类价值观,并且能够适应动态环境的奖励和价值系统,是确保 Agent 目标一致性的核心。

img

*5. 情绪与动机建模 (Emotion and Motivation Modeling)*

虽然在传统 AI 中较少提及,但我们认为,模拟类人情绪和动机对于构建更鲁棒、更具适应性的 Agent 可能是有益的。

情绪可以作为一种快速评估环境状态和调整行为策略的启发式机制,例如,“恐惧”可能触发规避行为,“好奇”可能驱动探索。动机则为 Agent 提供持续行动的内在驱动力。

当然,如何在 AI 中恰当、可控地实现这些机制,避免产生不可预测的副作用,是一个需要审慎探索的方向。

img

*6. 感知系统 (Perception System)*

Agent 同时也需要通过感知系统从环境中获取信息。这不仅是处理文本,更包括视觉、听觉、触觉等多模态信息的输入和理解。

感知系统需要能够从原始感官数据中提取有意义的特征,识别对象、理解场景,并将这些信息传递给认知核心和记忆系统。

img

*7. 行动系统 (Action System)*

Agent 最终需要通过行动系统与环境进行交互。这包括生成自然语言、执行代码、控制机器人肢体、在虚拟世界中导航等。

行动系统需要将认知核心的决策转化为具体的、可在环境中执行的操作序列。行动的选择需要考虑可行性、效率和潜在风险。

img

img

*第二部分:Agent 的自进化——迈向自主智能*

拥有完善的认知架构仅仅只是第一步。Foundation Agent 的核心特征之一在于其****自进化 (Self-Evolution)**** 的能力,即 Agent 能够通过与环境的交互和自我反思,不断学习、适应和提升自身能力,而无需持续的人工干预。

我们探讨了实现自进化的关键机制:

*1. 优化空间 (Optimization Space)*

自进化的前提是定义清楚哪些东西可以被优化。Agent 的几乎所有组件都可以成为优化的对象:认知策略、记忆内容、世界模型的准确性、感知能力、行动技能等等。

其中,****提示词,工作流, Agent 组件****是可以被直接优化的三个层次。

*2. LLM 作为优化器 (LLM as Optimizer)*

大型语言模型不仅可以作为 Agent 的认知核心的一部分,还可以扮演****优化器****的角色。LLM 通过生成代码、修改参数、提出新的策略或结构,来优化 Agent 自身的其他组件。例如,LLM 可以分析 Agent 过去的失败经验,提出改进记忆检索算法的建议;或者根据新的数据,生成更新世界模型的代码。

img

*3. 在线与离线自改进 (Online and Offline Self-Improvement)*

Agent 既能在与环境实时交互过程中进行在线改进,通过强化学习优化行为策略或根据感知更新世界模型(Online);也能在“休息”或专门训练阶段实现离线改进,利用收集的数据进行深层分析和模型更新,可能涉及调整整个认知架构、重构记忆库,或利用 LLM 作为优化器进行大规模模型迭代(Offline)。

*4. 自进化与科学发现 (Self-Evolution in Scientific Discovery)*

我们也特别提到了自进化在科学发现等复杂问题解决场景中的巨大潜力。一个具备自进化能力的 Foundation Agent 可以自主地提出假设、设计实验、分析数据、学习新知识,并不断优化其研究策略,从而加速科学探索的进程。这为 AI 在基础科学领域的应用打开了新的想象空间。

自进化是 Foundation Agent 区别于当前大多数 Agent 的关键特征。它突出了 Agent 自主学习和适应的核心能力。实现高效、稳定且目标可控的自进化机制,是通往真正自主智能的关键挑战。

img

*第三部分:协作与进化型智能系统 - 构建群体智能*

进一步的,当我们拥有强大的 Foundation Agent , 很自然地会将视野扩展到由多个 Foundation Agent 组成的多 Agent 系统 (Multi-Agent System, MAS),我们探讨了 MAS 的基础组成、结构、协作范式和决策机制;以及在多 Agent 系统的自主协作/竞争中,群体智能(Collective Intelligence)形成的现象**。**

*1. 多 Agent 系统设计 (Multi-Agent System Design)*

在大模型多 Agents 系统(LLM-MAS)中,协作目标协作规范是协作的基础。协作目标明确个体目标(个体性、集体性或竞争性),协作规范确立了 Agent 交互规则、约束和惯例。

基于协作目标和规范,多 Agent 系统可分为策略学习建模与仿真、以及协同任务求解。我们分析和梳理了三类 MAS 的典型应用,探讨了 LLM 如何赋能、影响并改进 Agent 的行为、交互及决策,并给出了 LLM-MAS 的下一代 Agent 协议。

*2. 拓扑**结构与规模化(Comunication Topology and Scalability)*

从系统角度出发,拓扑结构往往决定着协作的效率与上限。

我们把 MAS 的拓扑分为了静态和动态两大类:前者是预定义好的****静态拓扑*(层级化、中心化、去中心化)结构,常用于特定任务的解决实现;后者是根据环境反馈持续更新的*动态拓扑*结构,其可通过*搜索式、生成式、参数式****等新兴算法实现。

img

*3. 协作范式与机理 (Collaboration Paradigms)*

借鉴人类社会中的多样化交互行为,如共识达成、技能学习和任务分工,多 Agent 协作可以被归纳为****共识导向、协作学习、迭代教学与强化*,以及任务导向交互*。

在不同交互目标和形式下,Agent 之间形成讨论、辩论、投票、协商等单向或多向交互。随着交互的持续,这些过程迭代出决策和交互网络,不同 Agent 在协作中增强和更新个体记忆与共享知识。

*4. 群体智能与涌现 (Collective Intelligence and Emergence)*

在 MAS 中,群体智能的产生是一个动态且迭代的过程。通过持续交互,Agent 逐步形成共享理解和集体记忆。个体 Agent 的异质性、环境反馈和信息交换增强了交互的动态性,这对复杂社会网络的形成和决策策略的改进至关重要。通过多轮交互和对共享上下文的反思,Agent 不断提升推理和决策能力,产生如信任、战略欺骗、自适应伪装等涌现行为,也称之为自我进化。

按照进化形成机制,可分为基于记忆的学习和**基于参数的学习。**与此同时,随着 MAS 的演化,Agent 之间逐渐将形成和演进社会契约、组织层级和劳动分工,从基础的合作行为转向复杂社会结构。

*5. 多 Agent 系统评估 (Evaluation of Multi-Agent Systems)*

随着多 Agent 的优势成为共识,其评估范式亦需有根本性的变革——MAS 评估应聚焦于 Agent 交互的整体性,包括协同规划的效率、信息传递的质量与群体决策的性能等关键维度。

由此衍生,作者总结了 MAS 常见的任务求解型 benchmark,以及最新的通用能力评估方式:前者的重点在于,衡量多 Agent 在各种环境中的决策协同的推理深度与正确性;后者评估 Agent 群在复杂、动态场景下的交互与适应能力。

img

*第四部分:构建安全和有益的 AI Agent ——对齐与责任*

随着 Foundation Agent 能力的增强,其潜在的风险也随之增大。论文的最后一部分聚焦于如何构建****安全、可控、符合人类价值观****的 Agent ,这也是整个 AI 领域面临的最核心的挑战之一。

*1. 安全威胁与措施*

高级 Agent 面临诸多安全威胁,包括对抗性攻击、越狱与滥用、目标漂移和意外交互等。这些威胁可能导致 Agent 做出错误行为、绕过安全限制执行恶意任务、在自进化过程中偏离初始目标,或在复杂 MAS 中引发系统级故障。为应对这些挑战,需要研究部署多层次安全措施,如提高抵抗攻击能力的鲁棒性训练、检测阻止有害内容的过滤与监控机制、证明行为符合安全规范的形式化验证、帮助理解决策原因的可解释性与透明度设计,以及限制权限与影响的沙箱与隔离技术。

*2. 对齐问题*

这是最根本的挑战:如何确保 Agent(尤其是具备自进化能力的 Foundation Agent)的目标和行为始终与人类的价值观和意图保持一致?这涉及到价值学习、意图理解、伦理推理等多个难题。论文强调了对齐研究的紧迫性和重要性,需要跨学科的努力来解决这一问题。

*3. 未来方向*

构建安全有益的 AI 是一个持续的过程。未来的研究需要在技术、伦理、治理等多个层面共同推进。包括开发更可靠的对齐技术、建立完善的 AI 安全评估标准、制定相应的法律法规和社会规范等。

安全和对齐是 Foundation Agent 发展不可或缺的基石。如果不能有效解决这些问题,再强大的智能也可能带来巨大的风险。这部分内容敲响了警钟,强调了负责任地发展 AI 的重要性。

img

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值