如果AI能在后台默默为您工作,那会怎样呢?
我认为,为了让代理系统真正发挥潜力,我们需要转变观念,让AI在后台默默工作。当任务在后台处理时,用户通常更能接受较长的完成时间,因为他们对即时响应的期望降低了。这样,代理就能更自由地进行工作,往往比在聊天界面中更加细致和认真。
此外,让代理在后台运行,也使我们能够更有效地扩展我们的能力。聊天界面通常限制我们一次只能处理一个任务。但如果代理能在后台环境中运行,就可以有多个代理同时处理多个任务。
那么,这种后台代理的用户体验应该是什么样的呢?
建立对后台代理的信任:从“人在循环中”到“人在循环上”
要让代理在后台运行,需要建立一定程度的信任。如何建立这种信任呢?
一个简单直接的方法是向用户展示代理正在做什么。展示它采取的所有步骤,并让用户能够观察整个过程。虽然这些信息可能不会立即显示(就像实时响应那样),但它应该可以让用户点击查看。
接下来,不仅要让用户看到发生了什么,还要让他们纠正代理。如果用户发现代理在10步中的第4步做出了错误的选择,他们应该能够回到第4步并进行某种方式的纠正。
这种纠正可以采取多种形式。让我们以一个具体的例子来说明,比如纠正一个错误调用工具的代理:
-
你可以手动输入正确的工具调用命令,让它看起来像是代理自己输出的,然后从那里继续执行。
-
你可以给代理明确的指示,告诉它如何更好地调用工具——比如,“使用参数X而不是参数Y”,然后让代理更新其预测。
-
你可以更新代理在特定时间点的指示或状态,然后从那个步骤重新开始执行。
选项2和3的区别在于代理是否意识到了自己的错误。在选项2中,代理面对自己之前的错误生成,并被要求进行纠正;而在选项3中,它并不知道自己的预测错误(只是简单地遵循了更新后的指示)。
这种方法将人类的角色从“在循环中”转变为“在循环上”。“在循环上”意味着能够向用户展示代理采取的所有中间步骤,允许用户在工作流程中途暂停,提供反馈,然后让代理继续执行。
一个已经实现了类似这种用户体验的应用是Devin,AI软件工程师。Devin可以长时间运行,但你可以看到所有采取的步骤,回溯到特定时间点的开发状态,并从那里进行纠正。
整合人类输入:代理在需要时如何寻求帮助
尽管代理可能在后台运行,但这并不意味着它需要完全独立地完成任务。总会有一些时刻,代理不知道该怎么做或如何回答。这时,它需要引起人类的注意并请求帮助。
以我正在构建的电子邮件助理代理为例。尽管电子邮件助理可以处理基本的邮件,但它经常需要我在某些任务上的输入,这些任务我不想自动化。这些任务包括审查复杂的LangChain错误报告,决定我是否参加会议等。
在这种情况下,电子邮件助理需要一种方式来告诉我它需要信息来响应。注意,它不是要求我直接回应;相反,它寻求我对某些任务的意见,然后它可以利用这些信息来制作和发送一封漂亮的电子邮件或安排日历邀请。
目前,我将这个助手设置在Slack上。它向我提出问题,我在线程中回应它,这样自然地融入了我的工作流程。如果我考虑这种类型的用户体验,而不仅仅是针对我自己的电子邮件助手,我会设想一个类似于客户支持仪表板的界面。这个界面将显示所有需要人类帮助的区域,请求的优先级,以及任何额外的元数据。
我最初用“代理收件箱”这个词来描述这个电子邮件助手 - 但更准确地说,它是一个人类协助代理完成某些任务的收件箱……这是一个有点令人不寒而栗的想法。
结论
我对环境型代理非常看好,因为我认为它们是让我们扩展自己能力的关键。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。