阅读分享:Improving BERT with Syntax-aware Local Attention

Li, Z., Zhou, Q., Li, C., Xu, K., & Cao, Y. (2020). Improving BERT with Syntax-aware Local Attention.


一些研究发现,自注意可以通过局部注意增强,即注意范围被限制在重要的局部区域。有利用动态或固定窗口来计算局部注意,也有利用语法约束的。这项工作中提出了一种句法感知的局部注意(SLA)方法。

Approach

首先上模型图:

从依赖树解析中导出语法结构,并将其视为无向树。每个token xi映射到树节点vi,节点vi与vj的距离用dis(vi, vj)表示。

然而,依赖关系解析树可能不是非常准确。又,许多注意力头专注于专注于下一个或前一个标记,就用下面公式来表示两节点距离:

这样得到图右边 mask matrix :

局部注意力计算为:

即,将注意力限制在有句法依赖关系的token间。

然后,一个门控单元被用来结合全局和局部注意分数:

S^loc较大意味着更多的注意力集中在句法相关的词上。如果所有门控单元的输出都等于0,则可以获得标准变压器的注意力。

 

Results

其思想与之前读过的SGNet的类似,实验上也设置了对比实验,相比来说,这篇文章的注意力关注的范围更大,SGNet仅关注有直接父子关系的token。

实验分析也证明在大多数层中,语法感知的局部注意值高于基于窗口的局部注意值。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值