macbert4csc纠错

简介

此篇文章是对macbert4csc模型的一次尝试与思考,废话不多说,看内容。

模型结构

这个模型分成两部分:

  1. 使用BertForMaskedLM对预训练模型做mask训练。
  2. 对预测的结果输入linear,判断预测的结果和真实的结果是否相同,即二分类。

举例:
比如错句为我和你在一其,正确的句子为我和你在一起,错句输入MLM,得到的结果假设为我和你在一器。然后输入linear判别器,判断和正确的句子做二分类。最后两个loss进行相加。

思考

为什么选择macbert

首先看看什么是macbert,全称是(MLM as corrector),它是哈工大和讯飞一起训练的模型。主要做的内容有两点:

  1. 修改bert mask预处理代码,将bert做[mask]的地方用同义词来替代。同时引入全词mask。
  2. 替换NSP任务,使用SOP来替代。

第一条的做法好处是下游任务一般不会有[mask],那么就不会带来预训练模型和下游任务不匹配的问题。
第二条的做法好处是简单来讲就是更能理解句子的语义性(合理以及通顺)。

为什么代码没有在错字地方做mask

这个问题就是为什么选择macbert做微调,因为macbert对mlm中做mask替代的地方用了同义词替换。

和electra有什么关系

这个问题是我自己强行加进来的,哈哈。。

先来看下electra的结构图。

electra模型分成两部分:

  1. 生成器。例如上图,对thepainting[MASK],然后使用生成器进行训练获取结果, 其中the对了,painting对应了car
  2. 将生成的结果送入判别器,和原句做二分类,发现painting生成错了。

其loss计算方式如下所示:

有木有发现,两者其实还蛮像的,哈哈。

下面是正经思考:

  1. 错字识别是否可以使用electra模型来训练?
  2. 其中 λ是否可以进行借鉴?

回答1:我觉得阔以,甚者我觉得结果要比macbert4csc更好,为什么?

  1. 实验结果,macbert4csc的训练结果没有electra的结果好,你可以说不是同一类型的任务。
  2. macbert做同义词替换,如果没有对应的同义词呢,或者说同义词替换更关注实体词呢,错字是有可能哪里都可能错的。
    但是,这些想法都是有些牵强的,只有自己跑出来才知道结果。

回答2:我觉得阔以,因为对于多loss,一般没有好的解决方法,明明超参数,只能实验呗。作者在这里选择了50,因为他认为
二分类相比mlm的交叉熵更容易一些,所以给予了更大的权重。

但是我觉得还可以有另外一种思路来参考,即灾难性遗忘,它是说下游任务对预训练模型进行fine-tune,会对预训练模型造成干扰,那么loss计算时可以分成两部分,pretrained loss和fine-tune loss,一般按经验fine-tune loss权重为0.5。

改进

一. 调整λ值

作者这里使用0.7/0.3的权重分配给MLM和sigmoid二分类,这里我对其做了如下调整:

IDMLM weightsigmoid二分类 weightdev metric
110.5epoch26:0.9168
215epoch35:0.914
3150
1. ID(1)

macbert eval.py为准进行测试,记得把macbert_model_dir改成自己的。

以epoch 26的模型为准:

1
2
Sentence Level: acc:0.7040, precision:0.8545, recall:0.6087, f1:0.7109, cost time:5.35 s
Sentence Level: acc:0.7955, precision:0.8093, recall:0.7661, f1:0.7871, cost time:10.53 s

和”shibing624/macbert4csc-base-chinese”进行对比,发现recall要高了不少,结果效果更好了些~。

2. ID(2)

dev metric 在epoch 35的时候为0.914,相比ID(1)在epoch 26 0.9168的结果,发现收敛速度变的慢了。
故这个忽略。

3. ID(3)

dev metric 在epoch 35的时候为0.9112,虽说还有小量上涨可能,但是train metric已经过拟合了,这个结果让我觉得…,emmmm,这些超参没有达到想象中的区别哇。

2. 对hidden_states分配权重

作者在进行二分类的时候使用了最后一层的hidden_states,那么是否可以对所有的hiddeen_states分配不同的权重。为什么?前面的layer更偏向浅层语义信息,比如词法,句法等,越往后代表的含义可能更深层次,本来就是预测词对不对,搞那么深不一定适合。
回头尝试尝试。

  • 3
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值