Transformer可解释性:注意力机制注意到了什么?

©原创作者 | FLPPED

论文:

Self-Attention Attribution: Interpreting Information Interactions Inside Transformer (2021 AAAI论文亚军)

地址:

https://arxiv.org/pdf/2004.11207.pdf

01 研究背景

随着transformer模型的提出与不断发展,NLP领域迎来了近乎大一统的时代,绝大多数预训练方法例如BERT等都将transformer结构作为模型的框架基础,在NLP许多领域的SOTA框架中也常常能看到它的身影。

而transformer的成功很大程度上得益于多头注意力机制,这一机制可对输入的上下文信息进行编码,并且使得模型学习到不同输入token之间的依赖关系。

在多头注意力的可解释性研究方面,有些学者侧重于对注意力权重的分析,重点讨论权重大的特征,有些将模型决策的关注点放在输入的token上,还有部分学者认为注意力机制的分布是无法直接解释的。

相比于过去的研究,本文提出了一种自注意力机制的归因算法,可对transformer内部的信息交互进行可解释性的说明。

通过该方法,模型可识别较重要的注意力head,将其他不重要的head进行有效裁剪。还可通过构建归因树(attribution tree)将不同层之间的信息交互进行直观的可视化表示。

最后,文章还以bert作为扩展的实例应用,通过对归因结果分析构建的Adversarial trigger对Bert发动攻击,使得bert的预测能力显著下降。

02 Transformer简介

首先让我们来重新回顾一下Transformer结构。一般Transformer的结构是由encoder和decoder两部分组成,两者各包含N=6的layer,每个layer由两个sub-layer组成,分别为多头自注意力和全连接网络,具体如图1所示。

Transformer模型的成功很大程度上得益于多头注意力机制。假定每个layer的attention heads数量为h,第h个attention head可用下式(1),(2),(3)表示

那么每一层多头注意力可表示为:

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
传统的CNN(卷积神经网络)注意力机制Transformer注意力机制是两种不同的模型结构,它们在处理序列数据时有着不同的特点和应用场景。 传统的CNN注意力机制主要应用于计算机视觉领域,通过卷积操作来提取图像中的局部特征,并通过池化操作来减少特征的维度。CNN注意力机制可以通过卷积核的权重来决定对不同位置的特征进行不同程度的关注,从而实现对图像中不同区域的重要性加权。这种注意力机制在图像分类、目标检测等任务中取得了很好的效果。 而Transformer注意力机制则主要应用于自然语言处理领域,特别是在机器翻译任务中取得了巨大成功。Transformer注意力机制通过自注意力机制(self-attention)来对输入序列中的不同位置进行关注度计算,从而实现对不同位置的信息交互和整合。Transformer模型通过多层堆叠的自注意力层和前馈神经网络层来实现对序列数据的建模和特征提取。 相比传统的CNN注意力机制Transformer注意力机制具有以下几个优势: 1. 长程依赖建模能力:Transformer模型通过自注意力机制可以捕捉到输入序列中不同位置之间的长程依赖关系,从而更好地理解序列中的上下文信息。 2. 并行计算能力:由于自注意力机制的特性,Transformer模型可以并行计算不同位置之间的注意力权重,从而加速模型的训练和推理过程。 3. 可解释性Transformer模型中的注意力权重可以直观地表示不同位置之间的关注度,从而提供了一种可解释性较强的特征表示方式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

NLP论文解读

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值