AAAI 2021最佳论文Runners Up!Transformer的归因探索!

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

本文转载自:炼丹笔记

作者:一元,四品炼丹师

Self-Attention Attribution: Interpreting Information Interactions Inside Transformer(AAAI21)

论文:https://arxiv.org/abs/2004.11207

问题背景

在之前大家对于Transformer的理解都是,Transformer的成功得益于强大Multi-head自注意机制,从输入中学习token之间的依赖关系以及编码上下文信息。我们都很难解释输入特性如何相互作用以实现预测的。Attention计算得到的分数也并不能完美的解释这些交互作用,本文提出一种自我注意归因方法来解释Transformer内部的信息交互。我们以Bert为例进行研究。首先,我们利用自我注意归因来识别重要的注意头,其它注意头会随着边际效果的下降而被剪掉。此外,我们提取了每个层中最显著的依赖关系,构造了一个属性树,揭示了Transformer内部的层次交互。最后,我们证明了归因结果可以作为对抗模式来实现对BERT的非目标攻击。

那么该方案是怎么做的呢?

方案

1.背景知识

给定输入 , 我们将word的embedding打包成一个矩阵 , 叠加的 层Transformer通过

的方式计算得到最终的输出。

这其中最为核心的就是Multi-head的self-attention,self-attention的第 个head为:

其中, 表示 有多关注 ,此处我们假设 为attention heads的个数,最终multi-head attention可以通过下面的形式得到:

其中, 表示链接的意思。

2.Self-Attention Attribution

上图左侧是微调后的BERT中一个头部的注意力分数。我们观察到:

  • 注意力得分矩阵是相当密集的,虽然只有一个12个head。这很难让我们去理解单词在Transformer中是如何相互作用的。

  • 此外,即使注意力分数很大,也不意味着这对词对决策建模很重要;

  • 相比之下,我们的目标是将模型决策归因于自我注意关系,如果交互作用对最终预测的贡献更大,那么自我注意关系往往会给出更高的分数。

给定输入 , 表示Transformer模型,它将attention权重矩阵作为模型输入,此处,我们操纵内部注意得分 ,并观察相应的模型动态 来检验单词交互的贡献。由于属性总是针对一个给定的输入 ,为了简单起见,我们此处省略它。

我们计算第 个attention head的时候,我们先得到我们的归因得分矩阵。

其中 表示element-wise的乘法, 表示第 个attention权重矩阵, 计算模型 关于 的梯度,所以 的第 个元素就是关于第 个attention head的token 和token 交互计算的。

表示在一个层中,所有token都不相互关注。当 从0变为1时,

  • 如果注意联系 对模型预测有较大影响,其梯度也会越加显著,因此积分值也会较大。

直观地说, 不仅考虑了attention分数,而且还考虑了模型预测对注意关系的敏感性。

attribution分数可以通过积分的Riemman近似来计算得到,具体地说,我们在从零注意矩阵到原始注意权重A的直线路径上以足够小的间隔出现的点处求梯度的和。

其中 为近似的步数,后续实验中,我们将其设置为20。

我们再看一下下面这张图:

我们发现:

  • 更大的注意分数并不意味着对最终预测的贡献更大。SEP标记与其它标记之间的注意得分相对较大,但获得的归因得分较少。

  • 对contradiction类的预测,最主要的是第一节中的“don't”与第二节中的“I know”之间的联系,这种联系更容易解释。

实验

1.效果分析

我们发现:

  • 归因得分修剪头部会对模型效果可以产生更显著的影响。

  • 在每一层中只修剪Top2的两个归因分数的头部会导致模型精度的极大降低。相比之下,保留它们有助于模型达到近97%的准确率。即使每层只保留两个heads,模型仍然可以有很强的性能。

  • 和attention分数相比,使用attention分数裁剪heads的影响不是非常明显,这也充分证明了我们方法的有效性。

2.Head Attention的裁剪

1.Head Importance

1.1 Our method

其中 表示从held-out几何中采样得到的样本。 表示第 个attention head的最大attribution值。

1.2. Tylor expansion

其中 是关于样本 的损失函数, 是第 个head对应的attention分数。

2.实验对比

  • 使用我们的方法进行裁剪的效果是最好的。

小结

本文提出了自我注意归因(ATTATTR),它解释了Transformer内部的信息交互,使自我注意机制更易于解释。文章进行了定量分析,证明了ATTATTR的有效性。此外,利用本文提出的方法来识别最重要的注意head,从而提出了一种新的头部剪枝算法。然后利用属性得分得到交互树,从而可视化变压器的信息流。本文的方法非常有参考价值。

CVPR和Transformer资料下载
后台回复:CVPR2021,即可下载CVPR 2021论文和代码开源的论文合集
后台回复:Transformer综述,即可下载最新的两篇Transformer综述PDF
CVer-Transformer交流群成立
扫码添加CVer助手,可申请加入CVer-Transformer 微信交流群,方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。
一定要备注:研究方向+地点+学校/公司+昵称(如Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲长按加小助手微信,进交流群▲点击上方卡片,关注CVer公众号
整理不易,请给CVer点赞和在看
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值