LLM Agent提效进阶:反思工作流——91%精度大超GPT-4 24%

1. 相关研究

反思依赖于LLM对自己之前提出的工作进行反思并提出改进的方法,有三篇典型论文详细描述了这种模式,我们先来看一下。

2. Self-Refine

顾名思义,它是一种自我精炼的LLM优化技术,使用单一的LLM作为生成器、改进器和反馈器。该方法通过迭代过程生成初始输出,然后让同一LLM为其提供反馈,并使用这些反馈进一步改进输出。论文展示了SELF-REFINE在多个任务上的有效性,包括对话响应生成、数学推理、代码生成等,使用最先进的LLM(如GPT-3.5和GPT-4)进行评估。Self-Refine在所有评估任务上都优于使用相同LLM进行传统一步生成的方法,平均提高了约20%的任务性能。 以ChatGPT编写Python来举个例子

3. CRITIC

作者提出一个名为CRITIC的框架,允许大型语言模型(LLMs)通过与外部工具的交互来验证和改进自己的输出,类似于人类与工具的互动,该框架已经开源。

  • CRITIC通过与搜索引擎、代码解释器等工具的交互,评估初始输出的某些方面,并根据验证过程中获得的反馈来修正输出。
  • 该过程可以重复进行,以确保持续的输出改进。
  • 通过在自由形式问答、数学程序合成和毒性降低等任务上的全面评估,证明了CRITIC能够一致地提高LLMs的性能。

在数学评估的各个数据集上获得了最高的评分。

我会在后续的文章中尝试分析一下这个框架CRITIC,我们看看它是怎么进行调用工具验证,评估,纠正输出,再循环的。

4. Reflexion

作者指出最近的一些工作诸如ReAct、SayCan、Toolformer、HuggingGPT以及WebGPT证明了使用基于LLM构建的自动化决策Agent是可行的,但是这些方法大多依赖于在当前情景中的例子(in-context example)来指导LLM生成内容,因为用梯度下降的强化学习需要很多计算和时间。简单说,就是他们依赖的只是短期记忆。所以作者提出一种新的叫做Reflexion的框架,它通过使用语言强化学习(verb reinforcement)来帮助Agent从之前的失败中学习。Reflexion会把环境的二进制或量化的反馈转换成文字描述,作为下次迭代中的额外信息。这种自我反思式的反馈就像是个语意上的梯度信号来提供给Agent具体的优化方向,让Agent知道怎样改正错误,这样就能更好地完成任务了。就像人类通过反复练习和反思来快速掌握复杂技能一样。具体的工作流程如下图,[Reflexion的源码]已经开源,我们在下一篇文章中安装该框架进行分析。 从上图看出Reflexion框架利用三个不同的模型:执行者(Actor)、评估者(Evaluator)和自我反思模型(Self-Reflection)。

  • 执行者Actor基于状态观察生成文本和动作;
  • 评估者对执行者产生的输出计算奖励分数;
  • 自我反思模型生成口头自我反思提示以协助执行者自我改进。
  • 该过程使用短期和长期记忆,其中轨迹历史作为短期记忆,而自我反思模型的输出存储在长期记忆中。

Reflexion在AlfWorld任务上提高了22%的决策制定能力,在HotPotQA推理问题上提高了20%,在HumanEval编程任务上提高了11%。比如HumanEval(PY)上比GPT-4的80.1高初10个点,到达91.0。

总结

本文深入探讨了LLM(大语言模型)的反思工作流,通过介绍Self-Refine、CRITIC和Reflexion三种典型的优化技术,展示了LLM在自我反馈、工具交互和语言强化学习中的显著性能提升。这些方法不仅展示了AI系统在复杂任务中自我改进的潜力,还强调了自我反思在机器学习中的重要性。反思工作流的核心在于通过迭代反馈和自我修正,使模型能够不断优化其输出,就像人类通过经验和反思不断进步一样。 接下来,我们会从代码层面深度解析本文所提到reflexion框架,从安装,prompt设计到代码流程完全剖析。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值