论文浅尝 - ICLR2021 | 从信息论的角度提高语言模型的鲁棒性

论文ICLR2021中介绍的InfoBERT框架,通过信息瓶颈和锚定特征正则化增强BERT和RoBERTa对抗攻击的抵抗力。在NLI和QA任务的对抗性数据集上,InfoBERT实现了先进的鲁棒性,同时保持良性任务的准确性。
摘要由CSDN通过智能技术生成

笔记整理 | 胡楠,东南大学


来源:ICLR 2021

论文下载地址:https://arxiv.org/pdf/2010.02329.pdf

动机

最近的研究表明,BERT和RoBERTa这种基于BERT的模型容易受到文字对抗攻击的威胁。论文旨在从信息理论的角度解决此问题并提出InfoBERT,这是一种用于对预训练语言模型进行健壮微调的新颖学习框架。InfoBERT包含两个用于模型训练的基于互信息的正则器:(i)Information Bottleneck regularizer,用于抑制输入和特征表示之间的嘈杂的互信息;(ii)Anchored Feature regularizer,可增加局部稳定特征和全局特征之间的相互信息。论文提出一种方法可以从理论上分析和提高标准训练和对抗训练中语言模型的鲁棒性。大量实验表明,InfoBERT在自然语言推理(NLI)和问题解答(QA)任务的多个对抗性数据集上均达到了最先进的鲁棒准确性。

贡献

论文的贡献总结如下。(i)从信息论的角度提出了一种新颖的学习框架InfoBERT,旨在有效地提高语言模型的鲁棒性

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值