P-tuning的论文大白话阅读笔记和代码实现

论文阅读笔记

Motivation

  1. 新兴的 GPT-3 及其在使用手工prompt模板在few-shot和zero-shot学习方面的成功表明,使用prompt learning的方案可以使大规模自回归预训练模型适用于自然语言理解;
  2. 过去的prompt learning方案过度依赖手工设计,针对一些较复杂任务不好设计,且人力成本高,让模型自己学习模板能够在效率和准确性两个维度上给这个任务带来提升。

Method

Architecture

P-tuning模型学习的目标是得到能最大化提示预训练模型根据给定输入 x x x预测标签 y y y的前缀模板 { p 1 , . . . , p m } \{p_1,...,p_m\} { p1,...,pm}
在这里插入图片描述
为此,模型首先构造这个前缀模板,论文中将输入x插入前缀模板内部,得到 { p 1 , . . . , p i , x , p i + 1 , . . . p m } \{p_1,...,p_i,x,p_{i+1},...p_m\} { p1,...,pi,x,pi+1,...pm}。我认为可以根据需要组合提示模板,输入和输出的位置(注:根据苏剑林大佬的试验前缀效果最优 [ 2 ] ^{[2]} [2])。

而后通过embedding层和预训练模型映射得到隐向量:
e ( [ P 0 : i ] ) , e ( x ) , e ( [ P i +

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值