小样本如何更好的在BERT上fine-tune

本文探讨了如何改善小样本数据集上BERT的fine-tune稳定性,包括优化算法、模型初始化和训练迭代次数。研究发现,启用Adam偏差修正、重新初始化网络层权重及增加训练步数能有效提升模型性能。实验结果在多个数据集上得到验证。
摘要由CSDN通过智能技术生成

小样本如何更好的在BERT上fine-tune

Revisiting Few-sample BERT Fine-tuning阅读笔记,论文地址:https://arxiv.org/abs/2006.05987

1 摘要

这篇论文主要探讨了如何更有效地使用BERT在小样本数据集上进行fine-tune。虽然当前预训练模型在各项NLP任务中都取得了很好的效果,但是当大规模参数的预训练模型应用在小样本数据集上,其fine-tune的过程仍然是不稳定的。比如在相同的fine-tune过程中使用不同的初始化参数会导致结果有很大的偏差(之前参加预训练模型泛化能力挑战赛的时候,相同的epoch,每次的结果都会不一样),这会使得研究者们反复的去实验,不仅会浪费时间和资源而且还给实验对比带来挑战。

因此,论文针对在小样本数据集上的fine-tune的不稳定性进行分析(Fine-tune Instability),已有的方案:

  • Fine-tuning pretrained language models:Weight initializations,data orders, and early stopping

  • Effective regularization to fine-tune large-scale pretrained language models

  • Sentence encoder on stilts:Supplementary training on intermediate labeled-data tasks

该论文主要聚焦三个方面的优化工作:

  • 优化算

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值