大模型面试准备(五):一文搞懂 LangChain 的智能体 Agents 模块

节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何备战、面试常考点分享等热门话题进行了深入的讨论。


合集在这里:《大模型面试宝典》(2024版) 正式发布!


本文将从 Agents 的本质、Agents 的原理、Agents 的应用三个方面,带您一文搞懂 LangChain 的 Agents 模块。

图片

面试准备

一、Agents 的本质

Agents 是什么?

Agents 的核心概念是利用语言模型来选择一系列要执行的动作。与传统的硬编码动作链不同,Agents 使用语言模型作为推理引擎来确定要执行哪些动作以及它们的执行顺序。

  • 基于语言模型的决策:LangChain Agents以语言模型为核心,使其能够理解和执行自然语言或类似自然语言的指令。这种能力让Agents可以灵活地适应不同的任务和环境,无需硬编码特定的逻辑。

  • 可组合性与扩展性:LangChain框架注重Agents的可组合性和系统的扩展性。Agents可以通过组合各种工具和模块(如数据检索、信息提取、API调用等)来扩展其功能。这种设计方式不仅简化了维护和更新过程,还促进了代码和知识的重用。

  • 学习与适应性:结合机器学习技术(如强化学习),Agents可以从经验中学习并优化其行为策略,以应对复杂和动态变化的环境,从而提高性能和效率。

Agents 由几个部分组成。

  • 模式(Schema):是一组规则和结构,定义了代理如何与外部工具进行交互、执行动作以及管理任务状态,从而实现智能的多步骤推理和决策。主要包括AgentAction、Intermediate Steps、AgentFinish。

  • 代理(Agent): 负责决策下一个动作的实体。代理使用语言模型、提示和输出解析器来支持其决策过程。主要包括Agent Inputs、Agent Outputs。

  • 代理执行器(AgentExecutor): 负责运行代理并管理其与外部工具的交互。执行器处理复杂性,如工具错误处理、日志记录等。

  • 工具(Tools): 代理可以调用的函数或服务。每个工具都有一个输入模式和一个关联的函数,用于描述如何调用该工具以及实际执行的操作。

  • 工具包(Toolkits): 相关工具的集合,用于完成特定任务。例如,GitHub 工具包可能包含用于搜索问题、读取文件、发表评论等的工具。

图片

Agents 能干什么?

Agent System由多个协作的智能代理构成,这些代理能自主行动、响应环境、与其他代理或用户交互,并根据目标、规则和知识执行任务或决策。

在Lilian Weng的博客中,她阐述了以LLM为核心的AI Agents系统,其中LLM负责推理、决策和生成语言,还需结合规划、记忆和工具使用等关键组件来完善功能。

  • 规划(Planning):规划能力使得代理能够将复杂的任务分解成更小、更可管理的子目标。这有助于代理在面对复杂任务时能够有条不紊地执行。同时,代理还具备反思和细化的能力,可以从过去的经验中学习并改进未来的行为。

  • 记忆(Memory):记忆能力是代理系统中的重要组成部分。短期记忆允许代理在处理任务时保持上下文信息的一致性,而长期记忆则使得代理能够存储和回忆以前的知识和经验。这种记忆能力对于实现持续学习和适应新环境至关重要。

  • 工具使用(Tool Use):工具使用能力允许代理调用外部API来获取额外信息或执行特定操作。这些信息可能是模型权重中缺少的,但对于完成任务至关重要。通过调用外部工具,代理可以扩展其功能并适应更广泛的应用场景。

图片

二、Agents 的原理

Agents 的工作流程:通过结合大型语言模型(LLM)的推理能力和外部工具的执行能力,接收任务后进行思考、行动、接收反馈并重复这些步骤,直至任务完成或达到终止条件。

Agents 流程包含以下四个核心步骤:

  • 接收任务:LLM Agent首先接收一个任务描述或问题。

  • 思考:然后,它利用LLM进行推理和决策。例如,它可能会生成一个潜在的解决方案或行动计划。

  • 行动:接下来,LLM Agent会执行一些操作以完成任务。这些操作可能包括调用API获取数据、查询数据库、执行计算等。

  • 接收反馈:在执行操作后,LLM Agent会接收来自环境的反馈。这些反馈可能包括API的响应、数据库查询的结果等。

如果任务还没有完成,LLM Agent会重复上述步骤,直到任务完成或达到某个终止条件。

图片

Agent Types: 在LangChain中,Agent Types定义了不同类型的代理(Agents),这些代理使用不同的策略和方法来与用户和工具进行交互,以完成各种任务。

  • Zero-shot ReAct:
    这种Agent使用ReAct(Retrieve-and-Act)框架,该框架通过理解工具的描述来选择最合适的工具执行任务。Zero-shot意味着Agent不需要针对特定任务进行训练,而是可以基于工具的描述直接进行推断。

  • Structured tool chat:
    这种Agent支持使用具有复杂输入参数的工具。通过定义args_schema,Agent可以理解每个工具所需输入参数的结构和类型,从而与用户进行更结构化的对话以收集必要的信息。这有助于确保与工具的交互是准确和一致的。

  • Conversational:
    与标准ReAct Agent相比,Conversational Agent更注重与用户进行自然对话。它的提示和响应设计得更加对话性,适合在聊天场景中使用。

  • Self-ask with search:
    这种Agent类型集成了搜索功能,允许它自主地在搜索引擎中查找信息以回答问题。这增加了Agent的知识来源和回答问题的能力。

  • ReAct document store:
    使用这种Agent,用户可以与一个文档存储进行交互。该Agent包含两个关键工具:“Search”用于在文档存储中搜索相关文档,“Lookup”用于在最近找到的文档中查找特定术语或信息。

  • XML Agent:
    XML Agent专门用于处理XML格式的数据。它使用XML格式来解析工具调用和最终答案,这使得它特别适合与返回XML响应的工具或服务进行交互。

图片

三、Agents 的应用

Agents应用场景:在需要根据不同输入动态决定工具使用次数和顺序的复杂任务中,实现灵活智能的决策和处理。

工具链:有些任务的处理流程是固定的,我们可以预先设定一个工具链来按顺序处理。

在这里插入图片描述

但有些任务的处理流程是动态的,需要根据输入来决定使用哪些工具以及如何使用。

Agents是一种可以实现这种动态决策的机制,它可以根据输入和当前状态来选择下一步的操作,从而实现更加灵活和智能的任务处理。

在这里插入图片描述

Agents应用创建:使用 LangChain 库创建一个简单的代理(agent),该代理能够处理数学运算任务。

一、创建工具函数:通过装饰器 @tool 创建了三个工具函数:multiply(乘法)、add(加法)和 exponentiate(指数运算)。这些函数接收整数作为参数,并返回运算结果。

图片

二、创建提示模板:从 LangChain Hub 中获取一个提示模板。这个模板用于指导大型语言模型(LLM)如何生成响应。

图片

三、创建代理和执行器:选择一个大型语言模型来驱动代理。使用所选的模型、工具函数和提示模板来构建 OpenAI Tools 代理。同时,创建一个代理执行器,将代理和工具函数传递给它。

图片

四、调用代理: 代理会根据输入和提示模板动态地调用适当的工具函数来完成运算,并返回运算结果。

图片

  • 14
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
当编写多智能强化学习(Multi-Agent Reinforcement Learning)环境时,你需要定义一个环境类,其中包含状态空间、动作空间、环境动力学以及与智能的交互逻辑。下面是一个简单的示例,展示了如何编写一个简单的多智能环境模型: ```python import numpy as np class MultiAgentEnvironment: def __init__(self, num_agents, state_dim, action_dim): self.num_agents = num_agents self.state_dim = state_dim self.action_dim = action_dim def reset(self): # 初始化环境状态 self.state = np.zeros((self.num_agents, self.state_dim)) return self.state def step(self, actions): # 执行动作并更新环境状态 rewards = np.zeros(self.num_agents) for i in range(self.num_agents): rewards[i] = self._calculate_reward(actions[i]) self.state += actions return self.state, rewards def _calculate_reward(self, action): # 计算每个智能的奖励 return np.sum(action) # 创建一个2个智能,状态维度为2,动作维度为1的环境 env = MultiAgentEnvironment(num_agents=2, state_dim=2, action_dim=1) # 重置环境并获取初始状态 state = env.reset() print("Initial state:", state) # 模拟交互过程,每个智能采取随机动作 actions = [np.random.randn(1) for _ in range(env.num_agents)] next_state, rewards = env.step(actions) print("Next state:", next_state) print("Rewards:", rewards) ``` 在这个示例中,我们定义了一个`MultiAgentEnvironment`类,它有三个主要方法: - `__init__`:初始化环境,接受智能数量、状态维度和动作维度作为参数。 - `reset`:重置环境并返回初始状态。 - `step`:执行智能的动作并返回下一个状态和奖励。 在`step`方法中,我们简单地将每个智能的动作累积到环境的状态中,并计算每个智能的奖励。在这个示例中,奖励被定义为每个智能动作的总和。 你可以根据需要扩展和修改这个示例,以适应你的具智能强化学习问题。希望这个示例对你有所帮助!如果还有其他问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值