Bert在文本分类任务重如何进行 fine-tuning

11 篇文章 1 订阅
6 篇文章 0 订阅

1. 前言

文本分类是个经典的NLP任务。随着预训练语言模型的大受欢迎,诸如Bert等预训练语言模型在文本分类任务上也有这十分出色的表现。这篇文章并没有什么高深的tricks,只是最传统的方式的简单介绍。
由于Bert本身并不会直接输出文本类别,因此需要对模型进行稍加改造,一般是Bert+Linear再通过softmax获取最终的类别分布,因此就涉及到一些Bert部分的微调和Linear部分的训练工作,本文接介绍一些用Bert做文本分类任务时的一些常用模型训练技巧。

2. 关于Bert

关于Bert有几个关键信息需要了解。
Bert是有Transformers的encoder部分构成的,包含多个encoder block的堆叠。Bert的输入是一个不超过512个tokens的序列,输出是这个序列的表征,中间层的hidden_size为768。在文本分类中,Bert一般用最后一层的[CLS]作为整个句子的表征,再加个线性变换最终softmax成分别的分布。

3. 训练

训练一般有3种方式。
【1】Bert 直接在特定任务上做训练
【2】Bert在特定任务上进一步pre-train,再在有label数据上做训练。
【3】Bert在进一步pre-train之后,在multi-task fine-tuning,再在有label的数据上做训练。

3.1 Bert 直接在特定任务上做训练

这一步是最基础和关键的。在这里我们需要学习率的选择。常用的方式是不同的层采用不同的学习率进行梯度更新。
θ t l = θ t − 1 l − η l ⋅ ▽ θ l J ( θ ) , \theta^l_t = \theta^l_{t-1} - \eta^l \cdot \bigtriangledown_{\theta^l} J(\theta), θtl=θt1lηlθlJ(θ),
其中 η l \eta^l ηl表示的是第l层的学习率,我们首先设置一个初始学习率 η L \eta^L ηL,然后用如下策略$\eta^{k-1} = \xi \cdot \eta^k 进 行 学 习 率 的 调 整 , 其 中 进行学习率的调整,其中 \xi < 1$,当然也可以等于1。

3.2 Bert在特定任务上进一步pre-train,再在有label数据上做训练。

由于在做文本分类任务时,往往是对特定领域的内容做分类,例如医学文本,商品评价等等。因此我们可以用这个特定文本进行进一步的预训练,得到一个新的Bert。这一部分参考Bert的训练过程即可。

3.3 Bert在进一步pre-train之后,在multi-task fine-tuning,再在有label的数据上做训练。

Multi-task learning 也是一种十分有效的提升训练效果的方式。


当然模型训练还有很多其他的tricks可以借鉴,譬如对抗训练、r-drop等等。本文暂时对Bert用于文本分类的初学者做个简单介绍。后边的trick再慢慢补充。。。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值