干货分享 – 最全Prompt交互方法总结,让你与ChatGPT等大语言模型的交互效率加倍!

|引言

随着生成式人工智能的爆炸性普及,特别是像ChatGPT和GPT-4这样的模型,Prompt撰写已经变成了人工智能领域的一个至关重要的技能。然而,实际操作中,你会发现这并不像表面上的语法任务那么简单。一旦新鲜感消退,写Prompt需要个人的练习和思考才能迅速掌握。因此,在实际应用中,创建最有效的Prompt,也就是所谓的“Prompt工程”,已经成为了LLMs领域内外备受追捧的专业知识。这也催生了Prompt工程师这个职位。

本文将全面介绍Prompt工程,包括如何在提示中提供最有影响力的信息,介绍人物角色、正面和负面提示、零样本提示等内容,以及如何不断改进Prompt以更好地使用ChatGPT、GPT-4等大型语言模型(LLMs),以及如何与这些LLMs模型合作以完成各种任务。


先上Prompt结论导图:

这是我们目前验证过的与ChatGPT最佳的交动方式的思维链!
接下来就让我们去一一了解不同Prompt表达方式所呈现出来的不同效果。

|一、简单Prompt工程策略

Prompt工程的关键目标是在特定应用情境中实现对LLMs的高效利用。这包括创建清晰而具体的请求指令,以从语言模型中获取所需的答复。通过精心构建Prompt,我们能够引导ChatGPT生成准确而有用的回应。在构建ChatGPT的Prompt时,有一些基本原则需要牢记:

首先,要在Prompt的开头提供明确的指示,这有助于为模型设定上下文和任务。同时,明确指定所期望的答案格式也非常有益。此外,您可以通过引入系统消息或采用角色扮演技巧来增强互动。以下是一个应用了上述技巧的示例提示:

将该提示与以下提示进行比较:

直观地看,前者将获得更多有用的结果。

您可以通过迭代改进和实验提示来提高模型响应的质量和相关性,从而创建更有成效的对话。别犹豫,直接在ChatGPT上测试你的提示词。


|二、基础Prompt提示词策略

在上一部分,我们已经简要介绍了Prompt提示词的基本概念。现在,让我们更深入地探讨一些关键的Prompt要点。

Prompt中的关键词至关重要。它们是引导LLMs生成所需答案的关键输入。换句话说,以ChatGPT等LLMs能够理解的方式表达问题非常重要。如果用户不是领域专家且不熟悉专业术语,ChatGPT等LLMs的答案可能不如预期。这就好比在网络上进行盲目搜索而不知道正确的关键词一样。

此外,虽然在Prompt中添加相关信息有助于提高效果,但过于冗长的附加信息并不一定是最佳策略。Prompt关键词虽然至关重要,但它们更应被看作连接其他关键技巧的纽带。

另一个关键要点是,Prompt应该简洁明了。它应该提供ChatGPT、GPT-4等LLMs足够的信息以理解用户意图,但不应过于冗长。然而,过于简洁的Prompt也会存在问题,因为它可能导致LLMs输入的歧义和误解。因此,在实际应用中,平衡简洁的提示词与附加信息是关键,需要不断练习以精通这一技巧。

另外,为Prompt中添加角色分配和目标设定也是一个重要策略。明确赋予LLMs的扮演角色以及任务目标会显著改善输出质量。给予LLMs一个明确的角色,可以产生更好的结果。目标与角色密切相关,它们对于引导交互的方向至关重要。

最后,正面和负面提示是指导模型输出的有效框架方法。积极提示鼓励模型生成特定类型的响应,而负面提示则阻止模型生成特定类型的响应。这些提示可以极大地影响模型输出的方向和质量。例如,给定一个积极提示:

“您将扮演一位在北京拥有10年经验的房地产经纪人,为没有经验的购房者总结港区前5的小区。”

可以通过在其中添加负面提示来限定模型的输出,比如:

“请不要包含距离最近地铁站超过徒步10分钟的小区。”

这个额外的限制有助于ChatGPT等LLMs更好地理解生成哪些具体输出。


|三、高级Prompt提示词策略

在上一节,我们重点介绍了与LLMs互动的基本Prompt策略。在本节,我们将深入探讨一系列更高级的Prompt提示词策略,这些策略将使您能够以更复杂的方式与ChatGPT等LLMs进行互动。

这些策略也是Prompt工程师经常采用的方法。

|输入/输出Prompt

输入/输出Prompt策略在Prompt工程中扮演关键角色,因为它定义了用户提供给LLMs的输入以及LLMs生成的响应输出。这一策略直接影响着ChatGPT等LLMs响应的质量和相关性。例如,用户可能会提供一个输入提示,要求LLMs为特定任务生成Python脚本,输出将是生成的脚本。下面是一个具体示例:

|Zero-shot Prompt

零样本Prompt策略主要用于ChatGPT等LLMs在没有任何示例或上下文的情况下生成答案。它在用户需要快速回答而无法提供额外细节时,或者在主题过于广泛以至于示例会不必要地限制响应时非常有用。举例如下:

|One-shot Prompt

单示例Prompt策略主要用于为ChatGPT、GPT-4等LLMs提供单个示例或上下文来生成答案。这一策略有助于引导ChatGPT、GPT-4等LLMs的响应,确保其符合用户的意图。可以理解为,给模型提供一个样例总比没有提供要好。示例如下:

|Few-shot Prompt

少样本Prompt策略主要用于为ChatGPT等LLMs提供一些示例或上下文,以生成答案。这一策略有助于引导ChatGPT、GPT-4等LLMs的响应,确保其符合用户的意图。其核心思想是,多个示例比单个示例提供更多的引导。示例如下:

正如上面例子可以看出,Prompt中包含的示例数量会直接影响生成的输出。对于零样本,可能不提供任何水果名称;在单个示例Prompt中,可能提供多个水果名称;而在少样本Prompt的情况下,输出可能完全由与水果主题相关的名称组成。

|思维链 Prompt

思维链Prompt策略的主要目的是为ChatGPT等LLMs提供一些示例,以完善原始问题并确保获得更准确和全面的答案。它之所以被称为"思维链Prompt",是因为提示中包含了一些思路示例。这与X-shot提示技术不同,因为思维链提示的结构旨在引导模型具备批判性思维,帮助ChatGPT等LLMs发现可能未曾考虑的新方法。

此技术还鼓励LLMs进行批判性推理。思维链Prompt的口号是“让我们一步一步思考”,通常附加在提示的末尾,研究表明这可以改善生成的结果。首先,让我们考虑一个One-shot的示例:

现在让我们看一下下面的思维链Prompt:

可以看到,通过提供解决问题的思维过程示例,并引导LLMs逐步思考,ChatGPT能够将相同的推理应用于我们的问题,并得出正确的答案。

这展示了思维链Prompt策略的有效性。

|Self-Criticism Prompt策略

自我批评策略主要引导LLMs评估其输出是否存在潜在的不准确之处或需要改进的地方。这一策略旨在确保LLMs的输出尽可能准确。它有助于用户调整提示,并确定为什么未获得符合预期的结果。以下是一个示例:

“请重新审阅您的上述回复。您能发现存在的错误吗?如果存在,请找出这些错误并进行必要的编辑。”

这个示例指导LLMs使用自我批评来调整错误的代码:

“查看您刚刚生成的代码。目前它没有运行。您是否能够看到可以纠正的语法错误?如果是这样,请找出有问题的代码部分并重新生成它。”

利用ChatGPT的自我修复能力是一个不容忽视的Prompt工程技术。


|四、迭代Prompt策略

迭代Prompt策略主要是在初始提示的输出基础上向LLMs提供后续提示。具体而言,根据初始输出,通过提出进一步的问题或根据每个连续的响应提出额外的请求来不断改进结果。例如,考虑协助ChatGPT为正在撰写的一本书创建大纲。第一个提示可能如下所示:

“我正在写一本关于时间旅行的书。我还没有确定一个具体的主题。请为该书生成5个建议的主题。对于每项主题,请提供标题和一段关于本书将涵盖的内容的描述。这本书将针对休闲读者。”

假设生成了如下的主题之一:

标题:“时间悖论:探索时间旅行的复杂性”

描述:“时间悖论”深入研究了时间旅行悖论中令人费解的错综复杂,探索它们所呈现的迷人难题。本书探讨了各种悖论,例如引导悖论、预定悖论和信息悖论等。……

然后,便可以使用后续提示词对它进行迭代,即扩写:

“我会按照《时间悖论:探索时间旅行的复杂性》这个标题进行写。请您帮忙生成本书的章节大纲,包括章节和小节”

迭代后的输出摘录大纲如下所示:

介绍

  • 定义时间悖论

  • 时间旅行叙事中时间悖论的意义

  • 章节结构概述

第一章:Bootstrap 悖论 1.1 Bootstrap悖论的本质

  • 解释概念及其起源

  • 文学、电影和现实生活中的轶事的关键例子

  • ……

在这个示例中,您可以看到ChatGPT是如何不断进行迭代的。类似的迭代方法可以用于让LLMs生成代码:从概述开始,逐步迭代以生成模块,然后生成函数,在函数内生成代码。将大问题拆分解为更小、更易管理的问题通常是人类成功的方法,而LLMs也擅长以更可管理的方式逐步完成更大的任务。


|五、与模型合作


ChatGPT的最佳使用方式之一是将其视为初级助理,无论是研究助理、编码助理、问题解决助理,或任何其他类型的助理。建立这种合作氛围可以带来更多的成功。以下是促进这种合作的一些快速提示。

|Prompt的套娃Prompt

改进提示词协助效果的一种方法是让 ChatGPT 参与进来。像这样的提示可能会带来积极的结果,例如:

我现在可以使用什么提示来进一步帮助您完成此任务?

然后,ChatGPT 应该会给出一些有用的提示或建议,您可以使用它的建议来迭代下一步的提问方式。

|模型引导Prompt

模型引导提示的主要目的是让模型提供完成特定任务所需的信息。这类似于告诉某人:“完成这项任务,你需要什么,请告诉我”。这有助于消除猜测并防止模糊不清的结果。例如:

我希望你编写一个 Python 程序来管理我的客户信息,这些信息存储在Google Sheet中。为了完成这项任务,请询问我您需要回答的任何问题。

当然,精心设计的模型引导提示可以让您获得ChatGPT的许多相关答案,但初始提示词仍需要经过深思熟虑的编写才能有更好的交互开始

大模型岗位需求

大模型时代,企业对人才的需求变了,AIGC相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。
在这里插入图片描述

掌握大模型技术你还能拥有更多可能性

• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;

• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;

• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;

• 更优质的项目可以为未来创新创业提供基石。

可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把全套AI技术和大模型入门资料、操作变现玩法都打包整理好,希望能够真正帮助到大家。

-END-


👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值