ATT-CNN(attention based CNN)

ATT-CNN文本分类,论文解读(Attention-based Convolutional Neural Networks for Sentence Classification)


作者:sigma_Tian
来源:CSDN
原文:https://blog.csdn.net/tcx1992/article/details/80118443
版权声明:本文为博主原创文章,转载请附上博文链接!

NLP问题中,现有的关于attention机制的研究大多是对不同句子之间的相关性进行建模,如机器翻译中源语言与目标语言之间的词对齐以及问答中question与answer之间的词语相似性。 对句子中单词之间相关性的研究很少。在此文中,作者提出了一种attention based CNN(ATT-CNN),其中attention机制的作用是,在没有任何外部语法信息的情况下自动捕获非连续词的上下文信息和关系。

Attention-based CNN

首先介绍一下通用的CNN,在文本分类中也叫TextCNN。在此基础上介绍ATT-CNN

1. Basic CNN

BasicCNN模型通常先用向量表示(word embedding,如word2vec)替换句子中的每个单词,并创建句子矩阵 ARl×dA\in R ^ {l \times d} ,其中ll是句子长度(zero-padded),dd是embedding的维度。
(1)A=[x1,x2,x3,...,xi,...,xl]T,A=[x_1,x_2,x_3,...,x_i,...,x_l]^T, \tag 1
其中xiRdx_i\in R^d对应着句子中第ii个词的dd维词向量。接下来在一个宽度为nnnn个词)的滑窗上进行卷积操作。具体来说,该操作采用filter WRnd×hW\in R^{nd\times h}与句子中的每个n-gram之间的点积来获得另一序列cccc由一系列从以下公式计算的hh维向量cic_i组成:
(2)ci=f(Wxi:n+b),c_i=f(W\cdot x_{i:n} + b),\tag 2
其中ff为非线性激活函数,如ReLU(rectified linear unit)、sigmoid等,xi:nx_{i:n}nn个词向量拼接而成:xi:n=xixi+1...xi+n1x_{i:n}=x_i\oplus x_{i+1} \oplus ...\oplus x_{i+n-1}。最后对cc进行max pooling操作,后接一个全连接softmax层,其输出即为各标签的概率分布。
BasicCNN难以捕获长期的上下文信息和非连续词之间的相关性。这种弱点在dependency-based CNN中得以部分克服,但在实际使用中它总是需要额外的资源来获得良好的依赖树,例如口语处理。 一种新的基于注意力机制的CNN可以用来缓解这个问题。

2. ATT-CNN

图1展示了ATT-CNN模型的架构。 如图1所示,在输入层和卷积层之间引入了attention层。 具体地,attention层是为每个单词创建上下文向量。 上下文向量与单词向量拼接,作为单词新的表示,将其输入到卷积层。 直观来看,一对彼此远离的词往往联系较少。 因此,可以考虑将距离衰减添加到注意机制中。
attention机制的思想是在导出xix_i的上下文向量gig_i时学习将注意力集中在特定的重要单词上。 图1中的红色矩形表示gig_i。注意机制是另外的MLP,与ATT-CNN的所有其他组件共同训练。 当预测句子类别时,该机制确定哪些单词应该比句子上的其他单词更受关注。 打分后的单词以加权和组合:
(3)gi=jiαi,jxj,g_i=\sum_{j\neq i} \alpha_{i,j} \cdot x_j ,\tag3
其中αi,j\alpha_{i,j}被称为attention权重,要求α0\alpha\geqslant0jαi,jxj=1\sum_j \alpha_{i,j} \cdot x_j=1,这里可通过softmax 规范化来实现。描述attention机制的公式如下:
(4)αi,j=exp(score(xi,xj))jexp(score(xi,xj)),\alpha_{i,j}=\frac{exp(score(x_i,x_j))}{\sum_{j'}exp(score(x_i,x_{j'}))},\tag4
(5)score(xi,xj)=vaTtanh(Wa[xixj]),score(x_i,x_j)=v_a^Ttanh(W_a[x_i\oplus x_j]),\tag5
其中score值由上面提到的MLP来计算。简单来说,我们使用这个MLP来模拟单词对(xi,xj,ji)(x_i,x_{j,j\neq i})的相关性。 并且那些具有较大score值的xj,jix_{j,j\neq i}在上下文向量gig_i中占有更多权重。
图1 ATT-CNN结构
图1: ATT-CNN网络结构;在attention层,虚线对应着公式(4)-(5), 实线对应着公式(3),点划线为复制操作

以情绪分类中的以下句子为例:
There’s not one decent performance from the cast and not one clever line of dialogue.
当我们在这个句子中学习单词performance的上下文向量时,attention机制将更多的注意力集中在not和decent的单词上。 特别是,score(performance, not)和score(performance, decent)预计会比其他单词对更大。
此外,我们引入衰减因子λ[0,1]λ∈[0,1]作为score函数输出的惩罚,以减少随着句子长度增长而产生的噪声信息的影响。
(6)score(xi,xj)=(1λ)kscore(xi,xj),score(x_i,x_j)=(1-\lambda )^k\cdot score(x_i,x_j),\tag6
其中k=ji1k=|j-i|-1。当我们设定λ0λ→0时,将考虑更广范围的上下文; 而如果我们增加λ使其接近1,则只考虑局部范围内的上下文。
最后,我们将xix_i的扩展词向量xix_i'定义为xix_i及其上下文向量的串联,然后使用xix_i'更新句子矩阵A,它将被送入上文提到的BasicCNN中。
(7)xi=xigix_i'=x_i \oplus g_i\tag7

代码地址

展开阅读全文

没有更多推荐了,返回首页