2025,Agent开发者跨入深水区:用评估驱动产品迭代

2024年,我们没有如期待中看到Agent的爆发,但感受到Agent开发者已经开始进入深水区。在深水区游泳需要一些专用工具,这些工具被称为Agent Infra层的应用,是大量Agent赖以生存的基础设施。正如那句标语“要想富,先修路” ,只有Agent Infra层的先行,才能支撑起未来Agents的繁荣。

断更的这几个月里,我们在深水区的探索和实践催生了产品Chat2API的诞生。今天这一篇先和大家聊聊Agent开发者在深水区的游泳方法–如何构建Agent的评估体系,下一篇和大家来聊聊Chat2API的产品形态和诞生过程。

接下来的日子,我们在深水区见!

用户到底需要什么样的AI应用?

2024年,从需求侧基本可以确定两件事:

  • 一是用户对AI生成这件事不再稀奇,更关注有用、准确、可控。

  • 二是不要期待用户自己去配置复杂的提示词、外部工具、或者整理RAG知识库,对于用户来说,最好是拿来即用。

这驱动着开发者从浅水尝试区进入深水实验区:

  • 在浅水区,开发者只要利用dify、langchain的工具,配上RAG(记忆),配上工具(函数调用)就能搭建出一个完整的Agent,但至于这个Agent 具体干活质量如何,并没有考虑清楚。

  • 在深水区,Agent的行为需要被量化评估,从而驱动Agent的诞生和自我进化,也就是:由评估结果决定Agent是否可以发布,以保证在第一天使用就能被用户接受;由评估结果也驱动Agent持续进化以保证不断超出用户预期。

我把这种基于评估推动Agent开发的方式称为:Evaluation-driven development。可以说2024年下半年我们一直在做这件事情。

如何用评估促进产品迭代

深水区的第一件事情是构建自己场景的评估测试集,测试集很大意义上代表需求,决定着提示词应该如何调整、模型应该怎么选择、知识库应该如何检索。

比如日期推理这件事情,用户会有N多种表述日期的方法:

  • 直接的历法日期(阴历、阳历)

  • 类似今天、明天、明年此时这种相对说法

  • 节气、节日这种别称

  • 事件描述,比如xx成立的那天、暑假、寒假等

我们需要首先为每一种描述构建自然语言描述与绝对日期的映射关系,然后才开始进行提示词调优,直到整体表现达到最优为止。

理想情况下,这些评估测试集应该是从用户反馈来收集,但这个思路会让我们陷入蛋生鸡还是鸡生蛋的悖论:

  • 我们期待的是:越多使用,越多反馈,越好产品。

  • 而实际中是:一次使用,效果不好,不再使用,没有数据[惨~]

作为开发者,不要期待用户给我们太多机会“贡献”出他的数据。也就是说,从开始开发者自己就要有能力构建出大量、合理的冷启动测试数据集,然后在此基础上逐渐迭代完善测试数据。

深水区的Agent开发更像是一门实验科学,且这个实验一开始效果就不能太差。

关于如何做好这个实验,Langchain家族的AI度量观测工具LangSmith官方文档给出一张图,高度概括了LLM AI 应用的实验方法。在这个图的基础上,我用考试来类比实验体系中的各个要素(如图)。

实际上,这套实验评估方法和非AI产品的评估方法是一致的,比如我们做A/B test的时候:

  1. 出的题目是某按钮的位置位于A,B;

  2. 打分标准是看哪个位置的点击率(或者转化率)更高;

  3. 参与考试的考生是一个应用;

  4. 最终分数就是对A/B test的置信率的解读等。

只是在LLM AI应用中,打分标准不像点击率(或者转化率)那样确定。简单来说,LLM中的题目更像是陈述题,你可以参考像高考历史论述题那样建立标准:

一、定维度

相关度:回答是否与主题相关。

正确度:是否包含错误内容。

完整度:是否完整包含了所有内容。

…(其他维度)

二、 定打分标准

1-5分依次定分。

三、定好标准后开始判卷

可以用大模型机器评分:把标准作为提示词,和评分对象同时发给高级大模型(比如GPT-4o)打分。

也可以人工辅助评分: 业务专家对机器评分快速审核,直到给机器的标准能让ta打出和人类相近的分数。

不过,Agent的评估可不止这些,Langsmith还给出了一整套的方法(下图),这些内容能让我们学会:

  • 如何做出好的评估数据(手动、收集或者合成),比如用合成数据构建冷启动的第一组评估数据集,也就是给出例句让大语言模型仿照你的案例来写,最后再来人工辅助修改。

  • 如何构建打分标准。

  • 如何给出分数结果。

在这里不做一一列举,图中讲得比较明白。

只有当你的评估体系构建之后,才会有向最高标准演进的方向,这些演进方法包括:

  • 选择不同的大语言模型。

  • 调整提示词。

  • 调整知识检索的方法(如果有RAG)。

  • 切换不同用户群体。

  • 甚至还有自动调整提示词的开源项目Dspy,它可以让你在每次修改 LLM、检索器、评估标准或其他任何东西时,都可以重新优化一组新的提示和示例,以最大限度地满足你的评估标准。

所以你看,评估标准的建立可以说是Agent 优化的最强驱动力, Evaluation-driven development是Agent开发的必然趋势。

在Agent开发的深水区,Evaluation是一项系统工程。应该既有针对Agent整体输出的评估,也有针对Agent工作流每个节点的评估。

比如在下面这个例子中,我们定义Agent首先从文档库中检索到相关问题的解决方案,然后基于解决方法决定是否要调用工具(函数调用),综合使用到RAG和函数调用。为了让Agent的回答准确率达到最高,我们除了要对比最终结果,还需要在各个节点中制定相应的评估方案(红色表示,大家仔细看图,这里就不会文字罗列了)。

可见,要系统地做好这一套评估,更多的是脏活累活。但也只有评估体系,才能随着用户的使用让Agent变得越来越好。

为此,市面上出现了不少的评估工具(比如下表),这些工具的使用、博客文档能让你对Evaluation了解得更加清楚。

产品名称

介绍

LangSmith

测试、监控、评估LLM 应用,对使用Langchain开发的应用评估更友好。https://docs.smith.langchain.com/evaluation/concepts

Langfuse

开源山寨版的LangSmith

Arize

与LangSmith相比是开源的,且支持非langchain的应用。https://docs.arize.com/phoenix/evaluation/how-to-evals/running-pre-tested-evals

AgentOps

内容上和上述几家都差不多,页面风格、设计上不一样,所以拿出来参考。https://www.agentops.ai/

能不能让评估变得更加简单?

不过在仔细看过这些工具后,你会发现:工具只是提供了一个框架,这个框架里提供了dataSet,Evaluator,task,和score的位置,里面的具体内容仍然需要开发者自己构建。

此时我们发现在工具使用能力评估方面,可以有标准化的流程让评估变得更为简单,比如上图中对工具使用能力的评估有两个地方:

  • 一是:Agent是否能从众多工具中选择到正确工具,比如需要查询用户地址应该调用searchUser, 而不是updateUser。对应于下面这样一组数据集:

  • 二是:Agent需要将自然语言转换为正确的函数调用格式。比如需要从自然语言指令中提取出正确的参数值,对应下图这样的语言关系。

这两个过程中,选择工具相对简单;而如何对第二项评估就稍显繁重,比如首先要构建大量的对话数据,其次这些对话数据要和函数调用对应起来,然后在评估的时候,需要对函数语言进行解析,提取出相应的参数内容,再和对话里的数据进行比对…

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值