Prompt提示词|掌握这个提示词技巧,你将事半功倍

当我们在使用AI工具时,只是简单输入一个问题,而没有提供更多的信息,但AI工具仍然能够准确地完成任务?这其实得益于模型本身在大量数据中进行了训练。这种方式有一个专门的术语,叫做零样本提示(Zero-shot Prompting)。它的魅力在于,我们不需要对模型进行微调,也不需要提供任何示例样本,只需直接提问,模型就能完成相应的任务。

比如我们询问GPT,《谷歌如何工作,重新定义团队》这本书主要讲述了哪些内容,这个时候我们并没有给出书中的一些内容作为提示,GPT却回复了这本书的一些简介和价值,让我们很快就能了解这本书。提示词及其回复如下图所示:

少量样本提示(Few-shot Prompting)

虽然模型通过零样本提示( zero-shot )的能力就已经很强大了,但在使用AI工具的过程中,有时候简单地使用提示词可能效果并不理想。为了更好地引导AI,我们可以尝试使用 few-shot 少量样本提示。

所谓的少量样本提示(few-shot),就是在 Prompt 提示词中给问题提供一个 Context上下文,在上下文中提供一些具体的例子或者情境,这些示例的作用是让AI通过这些信息更好地理解并关联到问题的全貌和需求。从而引导模型找到对应的回答方式,生成更为准确的响应。这样,当我们问问题时,AI就能基于这些例子更精准地给出答案或是提供应对方案。

举一个简单的例子。我们使用GPT,想要了解中国各个省会的城市是哪里,其省会城市有哪些著名景点。比如并不仅仅是想得到“湖南的省会是长沙”这样的答案,还希望GPT同时告诉我们长沙的一些景点,我们可以先给GPT一点其他省会城市的样本作为参考,然后再问湖南的省会是哪里,这个时候GPT回复“湖南的省会是长沙”的同时,还会告知长沙的一些景点。如下图所示:

Prompt思维链提示

在遇到需要推理的复杂任务时,通过少量样本提示(few-shot) 可能无法达到预期,因为模型无法从少量样本中学习到完整的推理过程。这时候就需要引申出另外一个概念:思维链提示 - CoT (Chain-of-Thought Prompting)。通常涉及到推理的复杂任务,并不是可以一步直接得到答案的,中间会有很多的计算和推理过程。当我们让GPT 回答这些推理问题时,并没有给模型足够的思考空间,他没有草稿纸去进行计算。所以我们在给到模型提供示例时,不要只给一个答案,而是要把解题思路也给到模型,这样的话,模型学习到的效果会更好。

比如,我们出一个数学题,请GPT进行回答,题目如下:

A+B=10,B+C=15,A+C=15,请问B是多少?

我们直接将该题目发给GPT,让它帮我们解答,如下图所示:

从上图可以看到,GPT的回答是错误的。

出现错误的原因是由于缺少推理过程或者它的推理过程不正确,我们自己在面对这样的问题时都没法直接一眼得到答案,而是需要心算或者在草稿中进行计算。这时候要想解决问题,一个最简单的方式叫做 Zero-shot CoT 零样本思维链。比如我们可以让其直接仔细思考解答过程,然后再回答,如下图所示:

这个时候再看GPT的回答是正确的,而且也附上了它的推理过程。

如果问题更加复杂,零样本思维链得到的结果还是错误的。那就需要提供几个示例,而这时候提供的示例不光是给一个结果,还要给到一个思考的过程作为示例,相当于把自己的思维过程传达给 AI,让 AI 也用这个思路来分析问题,最终得到所需的答案。比如上面的案例,我们告诉GPT的解题思路可以将方程1加上方程2减去方程3,然后用得到的结果除以2就得到B的值。如下图所示:

如果碰上思维链的方式还不能使GPT的回复达到预期,那还可以更进一步的对 Prompt 进行优化。这些优化的方式是让 GPT 产生多个思维链,也就是多个推理路径,最终选择一个一致性最高的答案。这种方法叫做 Self-Consitency 自洽性。为一个问题,提供3个解决方案,最终结合3个解决方案给出与问题一致性最高的答案。

比如我们想从上海到北京去旅游,时间预期是5天,让GPT 给出三个方案,然后再跳出一个最符合我们预期的方案,如下图所示:

Prompt生成知识提示

在极少数情况下,我们可能会发现,无论我们如何调整模型思考的方式,GPT的回复始终无法满足我们的期望,无法解决我们的问题。这可能是因为模型本身缺乏必要的背景知识,或者模型不知道如何运用背景知识来解答。如果问题在于模型缺乏背景知识,那么我们只能主动采取行动。我们可以利用上下文Context,将所需的背景知识直接添加到提示中,然后让模型尝试给出答案。这样,模型就能在我们的引导下,运用所提供的背景知识来回答问题。而如果问题在于模型不知道如何运用背景知识,那么我们可以采用一种技巧,叫做Generate Knowledge Prompting生成知识提示。通过给模型提供一些示例,我们可以帮助模型自己生成解答问题的背景知识。一旦模型拥有了这些背景知识,我们就可以将其添加到上下文中,再次向模型提问。有了背景知识,模型自然能够准确回答我们的问题。这两种方法都能够解决模型在面对问题时的困扰,帮助我们更好地利用GPT来解答问题。

比如,最近哈尔滨火遍全网,我们想写一份去哈尔滨的研学旅行的策划案,但是你又不知道如何入手,这个时候,你可以先询问GPT,一份好的研学旅行的策划案应该包含哪些方面,如下图所示:

从上图中可以看到GPT回复一份好的研学旅行策划案包含10个方面,非常全面,接着我们将它的回复作为上下文,让GPT按照此要求输出一份去哈尔滨的研学旅行策划案。GPT任务完成的非常好,比如行程安排很具体,风险管理也很周到,孩子们的学习计划以及与家长的情绪沟通,看完我都想去参加了。其结果如下图所示:

所以平时在与AI交互过程中,通过运用有限的样本提示、思维链式提示以及生成知识提示等方面的技巧,我们能够提升AI在各种场景下的回答准确度和应变能力,从而进一步提升大家的使用体验。

如何学习AI大模型?

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高

那么针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉[CSDN大礼包🎁:全网最全《LLM大模型入门+进阶学习资源包》免费分享(安全链接,放心点击)]()👈

学习路线

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值