动手学大模型应用开发--Chapter 02 提示词工程


前言

本学习笔记为datawhale动手学大模型应用开发的第二章,学习链接为:
https://datawhalechina.github.io/llm-universe/

一、学习目标

理解提示词工程相关的概念,包括Prompting、Prompting tuning、Prompting Learning等相关的概念。

二、学习知识点概要

2.1 Prompting

Prompting指的是给语言模型一段特定的文本(即提示词),从而引导模型生成特定的输出文本(Completion)。其实类似于在ChatGPT的打字过程。

2.2 Prompting tuning

Prompting tuning(提示微调)是自动化生成“软提示”的一种方法。是微调的一种特殊形式,会改变模型的权重参数,但是比fine-tuning参数高效很多。

2.3 Prompting Learning

2.3.1 定义

**提示学习(Prompt Learning)**是一个非常General的术语,可以理解为涉及到提示词的机器学习范式都算是提示学习。简单来说是通过一些方法编辑下游任务的输入,使其形式上模拟模型预训练过程使用的数据与任务。比如做情感分类任务时,监督学习的做法是输入“我今天考砸了”,模型输出分类的分数或分布,而提示学习的做法则是在“我今天考砸了”后拼接上自然语言描述“我感觉很_”,让模型生成后面的内容,再根据某种映射函数,将生成内容匹配到某一分类标签。

2.3.2 运作原理

传统的预训练+微调:预训练完后,利用有标签的下游数据集对模型做微调,这需要改变模型的权重与偏置参数。而后,基于下游任务输入x,模型预测输出y:P(y|x)。
新范式预训练+Prompt+Predict:基于输入x,根据模版(Template)将其转为特定的结构化提示x1,x1是一个具有一定格式但是不完整的句子,有一些字段还没有被填充。对于x1,模型会基于概率对其进行填充,得到完整的输入x2。.基于这个x2,模型再预测输出y。

三、总结

若让语言模型描述一个不存在的产品,它可能会自行构造出似是而非的细节。这被称为“幻觉” (Hallucination),捏造出的回答找不到相应的出处,或者给出了错误的参考链接,这是语言模型的一大缺陷。

四、引申阅读

五万字综述!Prompt-Tuning:深度解读一种新的微调范式https://zhuanlan.zhihu.com/p/618871247

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值