NLP领域的小样本学习

few-shot: 通过较少的学习样本,实现比较好的识别能力。

技术迭代:

基于bert的标准微调范式在小样本效果比较差。

为什么小样本容易过拟合?

因为预训练有大量的参数,如果样本非常少,那么训练参数量就会远远高于样本量,造成过拟合! 

PET算法:

通过人为修改模板,把分类标签转化成完形填空。

通过引入一段话,把分类标签带入到训练样本中,实现完形填空的功能。

PET的缺点,写的不同的模板会影响效果。

 P-Tuning模型

基于PET使用伪模板。

 一般而言,p-tuing效果优于PET范式。但是对于标签特别多,以及蕴含任务需要去理解的时候,p-tuing任务的效果不是很好。蕴含任务就是无法把标签变成完形填空的形式。

 EFL : 把分类任务转换成二分类蕴含任务。

 关于paddle-NLP的小样本增强技术;

R-drop:

 Rdop做的是隐式数据增强,把一句话,变成两个接近的token。

 

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值