Lagent & AgentLego 智能体介绍

        本文主要介绍智能体相关基础知识,主流的智能体开源项目,重点介绍Lagent智能体和AgentLego框架。

一. 为什么要有智能体

        目前的大预言模型有一些局限性,包括有时候会生成虚假信息,也就是我们说的“大模型胡言乱语”,还有就是训练完成的大模型,其信息取决于训练的数据,无法实时更新。但智能体可以在大模型的基础上调用各种工具,实现更加丰富的功能,例如调用搜索引擎,获取最新信息等。

二. 什么是智能体

        在1995年 Hayes-Roth提出的智能体概念:

                1. 可以感知环境中的动态条件

                2. 能采取动作影响环境

                3. 能运用推理能力理解信息,解决问题,产生推断,决定动作

三. 智能体组成

        智能体一般由三部分组成:大脑,感知和动作。

        大脑一般由一个能力强悍的大模型,如ChatGPT,参数千亿的各类模型。

        感知一般由语言文字,图片,视频,音频,传感器等作为输入。

        动作是指智能体支持的一些动作,例如 图片检测,调用搜索引擎进行信息搜索等。

四. 常见智能体

        1. AutoGPT

         用户输入问题后,在任务列表中,选择一个任务给大模型执行,根据返回的结果,选择任务执行,这样循环,直达完成用户的问题。

        2. ReWoo

        用户输入后,通过大脑,也就是我们选择的大模型,进行任务拆分,再将拆分的任务分配给各个动作执行器,最终返回给大脑,回复答案给用户。

        3. ReAct

        与ReWoo类似。

五. Lagent 和 AgentLego

        1. Lagent

        一个轻量级开源智能体框架,旨在让用户可以高效的构建基于大预言模型的智能体。支持多种智能体范式,如AutoGPT,ReWoo,ReAct等。同时也支持多种工具如,谷歌搜索,Python解释器等。

        2. AgentLego

        一个多模态工具包,旨在像乐高积木,可以快速简便地拓展自定义工具,从而组装出自己地智能体。支持多个智能体框架,如Lagent, Langchain等。

  • 4
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
智能强化学习是指在一个环境中存在多个智能,每个智能都有自己的观察状态和可以执行的动作,并且它们通过相互作用来实现某种任务的学习过程。在构建多智能强化学习系统时,我们需要考虑每个智能的决策策略、交互方式以及如何协调它们的行为。 引用中提到了传统算法在多智能环境下的一些短板。传统的Q学习算法在多智能环境中不适用,因为每个智能的策略都在发生变化,导致环境的不稳定性,从而带来学习稳定性的挑战。经典的DQN算法也不适用,因为不知道其他智能的状态会导致自身状态转移的不确定性,阻止了以往经验重放的直接使用。此外,策略梯度(PG)算法在多智能环境中也不适用,因为智能数量的增加会加剧固有的方差大的问题。 为了解决这些问题,引用提到了一种名为MADDPG(Multi-Agent Deep Deterministic Policy Gradient)的算法。MADDPG采用了集中式训练和分散式执行的框架。在训练时,每个智能的Critic接收除了自身的状态-动作信息外,还包括其他智能的动作和状态信息。而在应用时,只利用局部信息即可给出最优动作。这种框架的优势是不仅适用于合作,还适用于竞争性或合作竞争混合的情况。此外,MADDPG算法不需要知道环境的动力学模型以及特殊的通信需求。 因此,在构建多智能强化学习系统时,我们可以考虑使用MADDPG算法,采用集中式训练和分散式执行的框架,使智能能够通过相互协作或竞争来学习并完成任务。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [多智能强化学习在智能工厂在线调度中应用](https://blog.csdn.net/crazy_girl_me/article/details/123138099)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [多智能强化学习算法MADDPG(一:由单智能强化学习到多智能强化学习)](https://blog.csdn.net/qq_40089637/article/details/108377307)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

有意思科技

给与不给,我都会更新

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值