背景
LLM的本质
为了深入探讨大规模预训练模型(LLM)的优秀性,首先需要阐述其基本概念。从技术层面分析,LLM可以被视为一种统计语言模型,其核心在于利用过去观测到的数据为未来的输出提供预测。在文本生成过程中,LLM通常根据给定的上下文预测下一个单词或字符,并从预测的概率分布中进行采样,这也就意味着LLM的输出是不稳定的。
Prompt的研究意义
近年来,自然语言处理(NLP)领域信赖Prompt作为一种重要的研究方法。在BERT模型的时代背景下,预训练和微调(Pretrain+Finetune)范式已成为解决问题的首选策略。然而,随着GPT-3系列模型的问世,大规模预训练模型为NLP任务带来了创新性的解决方案。得益于其强大的上下文学习能力,零样本学习(Zero-shot Learning)和少样本学习(Few-shot Learning)成为可行的处理方法。
因此,Prompt已逐渐成为微调范式的替代策略,这使得激发大规模预训练模型潜能以及提高其在复杂任务场景下的性能成为当前研究的焦点。在这个过程中,Prompt扮演着关键角色,其应用范畴不仅局限于设计提示词,还涉及到与大规模预训练模型的交互和研发的各种技能及技术。
Prompt Engineering的重要性
提示工程(Prompt Engineering)在实现与大规模预训练模型的互动、连接以及理解模型能力方面发挥着重要作用。通过提示工程,用户能够有效提高大规模预训练模型的安全性,同时为模型赋予新的能力。例如,利用专业领域知识和外部工具,有望进一步提升大规模语言模型在特定任务中的表现和性能。
综上所述,Prompt作为一个富有价值的研究方向,既有助于挖掘大规模预训练模型的潜在潜能,也在实际应用中增强模型的安全性和性能发挥了决定性作用。深入研究提示工程及相关技术,预计将为自然语言处理领域带来更高效、更广泛的应用前景。
书写原则
在My AI项目攻坚阶段,项目同学在多次实践和不断讨论之后整理了一套行之有效的prompt书写规范My AI Prompt Template规范 。除此之外,个人还有以下三点感悟:
Context, not control :
虽然通过指令微调让模型学会了一些指令跟随能力,但是语言模型的本质能力是续写。永远去陈述事实,让模型去理解上下文。避免说不要做什么,而是说要做什么。
- Wrong:
以下是代理与客户之间的对话。不要询问用户名或密码。不要重复。 客户:我无法登录我的帐户。 代理人:
- BETTER:
以下是代理与客户之间的对话。代理将尝试诊断问题并提出解决方案,同时避免询问任何与 PII 相关的问题。不要询问用户名或密码等 PII,而是让用户参阅帮助文章 www.samplewebsite.com/help/faq 客户:我无法登录我的帐户。 代理人:
Straight and clear
所谓大道至简,过于繁杂的修饰往往会掩埋真实的意图。好的提示词最好是具体和直接,也就是坦诚清晰——越直接,信息传递就越有效。
- Wrong:
写一款产品描述。要求该产品描述用词精简,相当简短,只有几句话,而不是太多。
- BETTER:
使用 3 到 5 句话的来描述该产品。
MarkDown is important
Markdown 的语法层级结构很好,适合编写 prompt,因此 LangGPT