Universal Language Model Fine-tuning for Text Classification

本文介绍了迁移学习在NLP中的应用,特别是预训练模型的微调方法,以解决小数据集过拟合和训练时间长的问题。论文提出了一种新的微调策略,包括差异性层学习率、倾斜三角学习率和逐步解冻等技术,有效提升下游任务性能,同时避免遗忘预训练知识。实验在6个NLP任务中验证了该方法的有效性。
摘要由CSDN通过智能技术生成

参考论文:Universal Language Model Fine-tuning for Text Classification

        迁移学习最早是应用于机器视觉方向的,迁移学习是从general到specific的过程,在general过程中在大型语料库中进行预训练(pre-training),在specific过程中在specific task领域中进行微调(fine-tunning).

迁移学习的可行性

       无论是在机器视觉还是在nlp领域中,预训练过程中发现底层特征的可复用性,而高层特征和任务的高相关性,nlp的ELMO就验证这一点。

为什么要进行预训练?

1. 训练数据小,不足以训练复杂网络

2.加速训练过程

3.参数初始化,找到好的初始点,便于优化。

为什么又要在specific task domain 进行微调?

1. 训练数据小,容易过拟合

2.从头开始基于预训练得到的特征训练,训练时间长

3.从头训练导致模型忘记pre-training的特征

        这篇文章就nlp方向提出了一种新的微调方法,用于解决上面提到的微调存在的三个问题,并在nlp中的6项任务中验证本文提出的微调方式的有效性。这篇论文提出的预训练方法和之前的迁移学习中微调方法在nlp中的不同点如下,这个在ELMO中也提到过:

        使用task数据fine-tuning词向量(如glove这种),只更改模型的第一层&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值