你的模型够可靠么?关键词掩码的模型可靠性提升方法探索

本文探讨了预训练模型在文本分类中的可靠性问题,指出过度依赖关键词可能导致模型忽略上下文信息。为解决此问题,提出了MASKER方法,包括非监督的关键词选择(基于TF-IDF和注意力得分)以及掩码关键词约束任务,如掩码关键词的重构和掩码后的熵正则,旨在增强模型对上下文的理解。实验表明,该方法能有效提高模型在OOD和跨领域泛化任务中的性能。
摘要由CSDN通过智能技术生成

©PaperWeekly 原创 · 作者|张琨

学校|中国科学技术大学博士生

研究方向|自然语言处理

论文标题:

MASKER: Masked Keyword Regularization for Reliable Text Classification

论文链接:

https://arxiv.org/abs/2012.09392

代码链接:

https://github.com/alinlab/MASKER

动机

文本分类是自然语言处理中一个基础但应用广泛的任务,而伴随着预训练模型的被提出,模型在文本分类任务上的效果也在不断被提升。虽然现有的预训练模型确实对文本分类的提升做出了突出贡献,但是利用文本分类模型进行微调存在一个可靠性问题。

模型会更过的依赖那些关键词,从而忽略了周围的上下文信息,模型会更过的依赖那些关键词,从而忽略了周围的上下文信息,试集中的数据分布是不同的,可能在训练集中某些关键词和某一类紧密关联,但在测试集中不是这样的,那么过渡依赖关键词的话,模型就会做出错误的判断。

除此之外,还有一个跨领域泛化的问题,在源域有效的关键词可能在目标域就不存在,这样模型在目标域的泛化就存在很大问题了。

比如下图,如果原域中 apple 指的就是苹果公司,那么当出现 OOD 的 apple 这个词的时候,模型应该能判断出来这已经不是在相同的域了,这时的 apple 就可能不再是关键词了。为了解决这个问题,本文在预训练模型的基础上提出了一个改进方案,主要用于增加模型的可靠性,尤其是在微调阶段的可靠性。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值