预训练模型性能提升策略及代码实战

本文介绍了预训练模型在NLP任务中的性能提升策略,包括文本处理、预训练模型向量表示、分类器的选择以及模型集成。讨论了文本截断、文本扩增、hard negative sampling、伪标注和随机词替换等方法。还提到了预训练模型的隐藏层融合、多任务学习和处理类别不均衡的技巧。最后,通过kaggle情感抽取比赛的代码实战展示了策略的应用和效果。
摘要由CSDN通过智能技术生成

写在前面

自从BERT出现以来,越来越多的优秀的预训练模型如雨后春笋般层出不穷,这给我们处理NLP任务带来了极大的便利,身处这么一个时代,能随意使用这些预训练模型无疑是很舒适的一件事情,但是预训练模型的使用也有着不少技巧,一些好的模型策略甚至能带来显著意义上的性能提升。博主最近也是赋闲在家,闲来无事就去kaggle打了个情感抽取的比赛:Tweet-Sentiment-Extraction,刚好总结一下看到的一些提升性能的策略。

主要参考文献:

1.新手入门 Kaggle NLP类比赛总结:https://zhuanlan.zhihu.com/p/109992475

2.https://www.kaggle.com/c/tweet-sentiment-extraction/notebooks

1.文本处理

1.文本截断。常用的截断的策略有三种:

有研究对比了三种策略的效果,head+tail 最优,这也符合我们的直觉,一般文章或段落的开头结尾往往会包含重要信息,截掉中间部分信息丢失最少。当然,这也不是绝对的,建议三种方法都尝试,比较后挑选,或者都保留,后期做融合。附一张Bert输入文本长度和batch size的关系表。

img

2.文本扩增。NLP 中,文本扩增比较常用且有效的方法是基于翻译的,叫做

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值