提示词工程

提示词工程-学习

promptingguide.ai
codenew
结合示例来学习:

  • 使用 2-3 句话向高中学生解释提示工程的概念。

ChatGPT: 提示工程是通过设计特定的问题或指令,帮助计算机更好地理解我们想要的答案。就像给朋友发信息时,清楚地表达你的想法,可以让他们更容易理解你想说的内容。

基础提示词

结果的质量与您提供的信息数量和完善度有关

  • Q: The sky is
  • 完善以下句子:
    The sky is

我们告知模型去完善句子,因此输出的结果和我们最初的输入是完全符合的。提示工程(Prompt Engineering)就是探讨如何设计出最佳提示词,用于指导语言模型帮助我们高效完成某项任务。

  1. 提示词格式
  • Q: 。。。?
    A: 。。。

以上提示方式位 zero-shot prompting
所展示的零样本学习即直接给问题,要ChatGPT回答

  • 小样本学习 (Few-shot Promping)

即给出问题和预想的答案,想以下这样给出
你好吗?//我不好
你吃了吗? //我没吃
你睡了吗? //

  1. 提示词要素
    • 指令: 想要模型执行的特定任务或指令。
    • 上下文: 包含外部信息或额外的上下文信息,引导语言模型更好地相应。
    • 输入数据: 用户输入的内容或问题。
    • 输出指示: 指定输出类型或格式。

通用技巧

您可以从简单的提示开始,随着您的目标是获得更好的结果,不断添加更多的元素和上下文。
不同子任务的大任务时,您可以尝试将任务分解为更简单的子任务,并随着获得更好的结果而不断构建。

  1. 清晰的指令
### 指令 ###
将以下文本翻译成西班牙语:

文本:“hello!”

其上的指令可以换成: “写入”、“分类”、“总结”、“翻译”、“排序”等,从而为各种简单任务设计有效的提示。

  1. 具体性

提示越具体和详细,结果就越好。因为提示的长度有限制。包含太多不必要的细节并不一定是一个好方法。这些细节应该是相关的

提取以下文本中的地名。

所需格式:
地点:<逗号分隔的公司名称列表>

输入:“虽然这些发展对研究人员来说是令人鼓舞的,但仍有许多谜团。里斯本未知的香帕利莫德中心的神经免疫学家 Henrique Veiga-Fernandes 说:“我们经常在大脑和我们在周围看到的效果之间有一个黑匣子。”“如果我们想在治疗背景下使用它,我们实际上需要了解机制。””
  1. 避免不精准
    直接、具体的
    解释提示工程的概念。保持解释简短,只有几句话,不要过于描述。 -> 使用 2-3 句话向高中学生解释提示工程的概念。
    从第一个提示词可以发现,’简短、几句话‘不清晰,2-3句话,100字更好,要怎么的格式,对谁说,也就是人群。
    请使用2-3句话,100字内向只会用Windows系统看电影,用im的人解释Python数据分析的概念。

  2. 做或不做

避免说不要做什么,而是说要做什么。这鼓励更具体化
以下是一个电影推荐聊天机器人的示例,因为我写的指令——关注于不要做什么,而失败了。

提示:

以下是向客户推荐电影的代理程序。不要询问兴趣。不要询问个人信息。

客户:请根据我的兴趣推荐电影。
代理:

输出:

当然,我可以根据您的兴趣推荐电影。您想看什么类型的电影?您喜欢动作片、喜剧片、爱情片还是其他类型的电影?

修改:

以下是向客户推荐电影的代理程序。代理负责从全球热门电影中推荐电影。它应该避免询问用户的偏好并避免询问个人信息。如果代理没有电影推荐,它应该回答“抱歉,今天找不到电影推荐。”。
顾客:请根据我的兴趣推荐一部电影。
客服:

学习方法: 通常,学习概念的最佳方法是通过示例进行学习

提示词示例

  1. 文本概括

事实上,语言模型最前景的应用场景之一就是能够快速概括出易于理解的文章大意和相关概念。

  1. 信息提取
Author-contribution statements and acknowledgements in research papers should state clearly and specifically whether, and to what extent, the authors used AI technologies such as ChatGPT in the preparation of their manuscript and analysis. They should also indicate which LLMs were used. This will alert editors and reviewers to scrutinize manuscripts more carefully for potential biases, inaccuracies and improper source crediting. Likewise, scientific journals should be transparent about their use of LLMs, for example when selecting submitted manuscripts.

Mention the large language model based product mentioned in the paragraph above: // 指出上文中提到的大语言模型:
  1. 问答
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值