学prompt+RAG这么久了,还是搞不出个凑合的 AI 应用

最近在coze群认识两个朋友,一个做法律助手,一个做膳食营养助手,问了同一个问题:为什么我的AI助手表现很不稳定,一会正常,一会又不受控制。

奥特曼-古德白

很好的问题,哪里出了问题?prompt工程各种奇技淫巧各种模板都尝试了,知识库召回策略也用上了高级模式,多路召回、倒序重拍一个不拉,好像并没有多少效果。

先说说什么****是本文定义的应用

开始之前我们先定义一下什么是应用,ChatGPT出来一年多,市面上各种各样的套壳GPT产品,这些产品都非常有价值,比如写个小作文,形成一个创意文案,做个头脑风暴效果都很好。

但我们今天提到的应用,是专门为解决某行业或某类型的问题而设计,面对的问题域是比较明确的,输出的解决方案也是确定的。

为什么看起来应该行却不行

为什么现在GPT在法律考试中可以打败90%的名校大学生,这些简单的任务却搞不定?这里就不展开什么注意力机制、概率模型等专业术语,我们只需要了解一点,大模型技术驱动的GPT、文心一言等都是相同的原理,对于每一次的提问,总会给出概率最大的那个答案,但每次又有一定的随机性,这也是业内很多专家认为AI技术具有类人智能的基础。

人有的ai都得有

“世界是一个巨大的草台班子”

“乌合之众”

上面的词应该不陌生吧,既然人就是极其不靠谱的,像人的AI不靠谱是不是也正常,我们来看看人类是如何解决问题的。

一个软件开发团队,为了让交付的产品稳定可靠,团队会分为产品、研发、测试、运维等不同的岗位,每个岗位只做对应的工作,且互相之间监督和补位。

另外还会建立研发流程制度来约束,如产品评审制度、代码编码规范、测试发布流程等,正是有了角色分工+流程规范,保证了今天互联网千千万万应用的稳定运行。

几千年以来,人类探索出了有如此多的工具、方法、组织等加持,逐步解决了单个人的不靠谱性。这些经验能不能复制给AI?

AI agent(智能体)是银弹吗

AI 学习人类,如何加上角色分工和流程规范?这就是当下最热的AI应用开发模式,agent(具体介绍可参考我另一篇)智能体要做的,简单来说agent做了两件事:

一把分制法思想带给了大模型,通过把一个把复杂问题解化为多个小问题,以此确保每次执行的稳定性;

二增加工具使用能力,以解决大模型技术固有的三大不足问题。

重新认识我们人类自己

AGI通用人工智能已经赶上人的智能了吗?

我是这样理解的,人类的智能可以分为三层(以职场类比):

发现能力:CEO属于公司里最高层,可以发现问题,指明公司发展方向的责任;

规划能力:中层管理者,当CEO指明方向后,可有效理解并拆解形成具体的执行方案;

执行能力:底层员工要求最低,只需要按时稳定的完成具体任务执行即可。

我个人的观点,目前AI在发现能力上是明显不够的,这也正是openai公司追求的目标,即研发出可以像牛顿一样发现新的物理规律的AI技术,但执行能力比较满足的。

哪些行业将先一步AI落地

那么AI+agent是不是万能,可以在千行百业的一线代替工作呢?这里有三个问题需要一并考虑:

一 不同的行业对人的要求本身就不同,比如房产中介可能是刚毕业的大学生最容易入职的行业,但投行经理的门只向名牌大学开。那些底薪低,不需培训就可上岗的行业,AI进入也比较容易,反之行业对人要求高对AI也是一样。

二 AI还是封锁在计算机系统内的软件,缺少像人类一样的嘴巴、耳朵、眼睛,这意味着那些需要见面需要语音交流的工作场景,AI替代还有技术挑战。

三 即使条件一和二都满足,还有一个经济性或是ROI的评判,AI上岗之前需要人工构建一套角色分工设计和流程规范,这项工作做起来很难,只有那些行业中从业人口众多,需求分布广泛的任务或职位才是首先引入AI的重点。

有SOP就有可能被AI克隆

有一种说法,在传统行业KPI考核机制非常有效,但在软件开发等一些创新研发领域,OKR是更加适合的绩效机制。AI替人也存在类似的情况,如果某项任务的分解逻辑和执行策略非常清晰,构建对应的工作流也更容易。我自己公司在研发AI销售agent,我们的宣传口号是“克隆销冠,让老板0成本拥有1万个销冠24小时搞钱”。但这里你得先有销冠,AI才能复制其,如果还没有完成销售最佳SOP的构建,就无克隆之说。

另外一个例子如面试高级架构师的任务,架构师的录取和评价标准本身就不清晰,主要依靠人的直觉来判断,此类工作将是AI最后攻克的难题。

为什么技术天天放卫星,落地好像并不多

这个问题也是一直困扰我,下次有机会再写!

这里分享两个有意思的项目:

一个是聊天辅助工具,针对很多直男不会聊天痛点,只需要截图聊天窗口发送AI,即可获得定制版的高智商高情商回复;

另一个是办公软件中电子表格公式生成器,只需简单的一段功能描述,即可生成需要的公式。

看起来找一些很细分的行业探索是不错的选择。

仍然面临的挑战

1 技术鸿沟理论,一项新的技术从提出到认知到真正应用,必须要经历过程,无法被加快的;

2 尽管有各行各业的创业者,在构建各种各样有价值的应用,大模型是全新的技术,就好比内燃机发明后,不是装在马车就能进入汽车时代,配套的加油站、红绿灯,甚至需要设计交通规则等,这些都需要时间和实践的反复探索。

3 还有一些具体的困难,比如我们在做一个婚姻法的AI助手,和律师一起梳理穷举了婚姻场景下各种可能的问题,以及对应的应答工作流,最后完成的这个工作流近1万个节点,非常复杂的系统。构建类似系统需要极大的耐心、专业和时间,也许未来的AI会更加智能,无需人工参与可自行搞定工作流的建设,但目前看起来确实还有挑战。

我最近在做两个小应用

一是AI一对一宝宝起名,我有一个朋友是起名专家,我把他脑子里的起名的知识都克隆出来了,近期就会在豆包上线,应该会很好玩。

二是一个日程助手,已经豆包上线。

如何如何找到更多 AI 应用机会

1 找到脑子里有地图的人,即那些在自己的行业已经有完整的“工作流”,如果能有 AI 复制出来可能就是宝藏。比如我在做的 AI起名就是这个思路。

2 利用 AI 能力自己去构建新的“地图”。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

  • 15
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
根据提供的引用内容,可以得知prompt+RAG的流程如下: 1. 首先,使用Retriever部分在知识库中检索出top-k个匹配的文档zi。 2. 然后,将query和k个文档拼接起来作为QA的prompt,送入seq2seq模型。 3. seq2seq模型生成回复y。 4. 如果需要进行Re-rank,可以使用LLM来rerank,给LLM写好prompt即可。 下面是一个简单的示例代码,演示如何使用prompt+RAG: ```python from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration # 初始化tokenizer、retriever和seq2seq模型 tokenizer = RagTokenizer.from_pretrained('facebook/rag-token-base') retriever = RagRetriever.from_pretrained('facebook/rag-token-base', index_name='exact', use_dummy_dataset=True) model = RagSequenceForGeneration.from_pretrained('facebook/rag-token-base') # 设置query和context query = "What is the capital of France?" context = "France is a country located in Western Europe. Paris, the capital city of France, is known for its romantic ambiance and iconic landmarks such as the Eiffel Tower." # 使用Retriever部分检索top-k个匹配的文档 retrieved_docs = retriever(query) # 将query和k个文档拼接起来作为QA的prompt input_dict = tokenizer.prepare_seq2seq_batch(query, retrieved_docs[:2], return_tensors='pt') generated = model.generate(input_ids=input_dict['input_ids'], attention_mask=input_dict['attention_mask']) # 输出生成的回复 generated_text = tokenizer.batch_decode(generated, skip_special_tokens=True)[0] print(generated_text) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值