paper解读:Bi-Directional Attention Flow For Machine Comprehension

基于双向注意力的阅读理解(ICLR2017,引用800多,入门阅读理解可以看这篇)
paper: https://arxiv.org/abs/1611.01603
code: https://github.com/allenai/bi-att-flow

模型框架

模型主要框架如下图所示:
在这里插入图片描述

包括六个部分:
Character Embedding Layer:使用character-level CNNs将词转换成向量;
Word Embedding Layer:使用预训练的word embedding模型将词转换成向量,如glove等;
Contextual Embedding Layer:利用周围单词的上下文提示来完善单词的嵌入,如Bi-LSTM。同时应用于query和context;
Attention Flow Layer:将query向量和context向量耦合,包括query2context attention和context2query attention;
Modeling Layer:使用RNN模型学习上下文表示;
Output Layer:得到query的答案。
值得注意的是,前三步在不同粒度下计算query和context的特征,这有点像计算机视觉领域的CNN中的多阶段特征计算的过程。

双向注意力流

下面具体讲一下Attention Flow Layer.
在这一步中,作者计算两个方向的attention:从context到query以及query到context。这两个方向的attention都基于相同的相似度矩阵 S ∈ R T × J S\in R^{T\times J} SRT×J,其中H表示context embedding,U表示query embedding。 S t , j S_{t,j} St,j表示context的第t个时刻和query的第j个时刻的相似度,具体如下:
S t , j = α ( H : t , U : j ) ∈ R S_{t,j}=\alpha(H_{:t},U_{:j})\in R St,j=α(H:t,U:j)R
其中, α \alpha α是可训练标量, H ∈ R 2 d × T , U ∈ R 2 d × J H\in R^{2d\times T}, U\in R^{2d\times J} HR2d×T,UR2d×J H : t H_{:t} H:t表示H的第t列,即第t个时刻的向量,同样, U : j U_{:j} U:j表示U的第j列,即第j个时刻的向量.可选的, α ( h , u ) = w S T [ h ; u ; h ∘ u ] \alpha(h,u)=w^T_S[h;u;h\circ u] α(h,u)=wST[h;u;hu] w S T ∈ R 6 d w^T_S\in R^{6d} wSTR6d是一个可训练权重向量。

context-to-query attention

context-to-query(C2Q)目的是得到context的每个词中,与query各个词的相关性。
a t ∈ R J a_t\in R^J atRJ表示第t个context word与query各个词的attention权重,其中 ∑ j a t j = 1 \sum_ja_{tj}=1 jatj=1(这里应该是所有j的和为1,作者写的是all t,应该是写错了)。 a t = s o f t m a x ( S t : ) ∈ R J a_t=softmax(S_{t:})\in R^J at=softmax(St:)RJ,因此 U ~ : t = ∑ j a t j U : j \widetilde U_{:t}=\sum_ja_{tj}U_{:j} U :t=jatjU:j

query-to-context attention

query-to-context attention(Q2C)目的是得到query的每个词中,与其最相似的context word,这是回答query的一个重要参考。
首先,使用 b = s o f t m a x ( m a x c o l ( S ) ) ∈ R T b=softmax(max_{col}(S))\in R^T b=softmax(maxcol(S))RT获得context words的attention权重。其次, h ~ = ∑ t b t H : t ∈ R 2 d \widetilde h=\sum_tb_tH_{:t}\in R^{2d} h =tbtH:tR2d.此向量表示上下文中相对于query而言最重要的单词的加权和. h ~ \widetilde h h 在列维度上复制T次得到 H ~ ∈ R 2 d × T \widetilde H\in R^{2d\times T} H R2d×T.
最后,对上述向量进行拼接得到 G : t = β ( H : t , U ~ : t , H ~ : t ) ∈ R d G G_{:t}=\beta (H_{:t},\widetilde U_{:t},\widetilde H_{:t})\in R^{d_G} G:t=β(H:t,U :t,H :t)RdG,特别地,可令 β ( h , u ~ , h ~ ) = [ h ; u ~ , h ∘ u ~ ; h ∘ h ~ ] \beta(h,\widetilde u,\widetilde h)=[h;\widetilde u,h\circ \widetilde u;h\circ \widetilde h] β(h,u ,h )=[h;u ,hu ;hh ]

Modeling Layer

将上一步的G作为输入,使用bi-LSTM得到输出 M ∈ R 2 d × T M\in R^{2d\times T} MR2d×T

Output Layer

QA任务需要模型从paragraph中找到一个子序列来作为query的答案。因此,output layer的目的是预测开始索引和结束索引。
p 1 = s o f t m a x ( w p 1 T [ G ; M ] ) p^1=softmax(w^T_{p^1}[G;M]) p1=softmax(wp1T[G;M])
p 2 = s o f t m a x ( w p 2 T [ G ; M ] ) p^2=softmax(w^T_{p^2}[G;M]) p2=softmax(wp2T[G;M])
training loss使用两个索引的交叉熵损失的和,即
L ( θ ) = − 1 N ∑ i N l o g ( p y i 1 1 ) + l o g ( p y i 2 2 ) L(\theta)=-\frac{1}{N}\sum^N_ilog(p^1_{y^1_i})+log(p^2_{y^2_i}) L(θ)=N1iNlog(pyi11)+log(pyi22)
测试阶段:当 p k 1 p l 2 p^1_kp^2_l pk1pl2取得最大值时,使用answer span(k,l)作为query的答案,其中 k ≤ l k\leq l kl

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值