【NLP】Seq2Seq原理详解

一、Seq2Seq简介

seq2seq 是一个Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列。Encoder 中将一个可变长度的信号序列变为固定长度的向量表达,Decoder 将这个固定长度的向量变成可变长度的目标的信号序列。
很多自然语言处理任务,比如聊天机器人,机器翻译,自动文摘,智能问答等,传统的解决方案都是检索式(从候选集中选出答案),这对素材的完善程度要求很高。seq2seq模型突破了传统的固定大小输入问题框架。采用序列到序列的模型,在NLP中是文本到文本的映射。其在各主流语言之间的相互翻译以及语音助手中人机短问快答的应用中有着非常好的表现。

二、编码解码模型

1、模型框架

在NLP任务中,其实输入的是文本序列,输出的很多时候也是文本序列,下图所示的是一个典型的机器翻译任务中,输入的文本序列(源语言表述)到输出的文本序列(目标语言表述)之间的变换。
在这里插入图片描述

2、编码解码器结构

(1)编码器处理输入序列中的每个元素(在这里可能是1个词),将捕获的信息编译成向量(称为上下文内容向量)。在处理整个输入序列之后,编码器将上下文发送到解码器,解码器逐项开始产生输出序列。如,机器翻译任务
在这里插入图片描述
(2)上下文向量

  • 输入的数据(文本序列)中的每个元素(词)通常会被编码成一个稠密的向量,这个过程叫做word embedding
  • 经过循环神经网络(RNN),将最后一层的隐层输出作为上下文向量
  • encoder和decoder都会借助于循环神经网络(RNN)这类特殊的神经网络完成,循环神经网络会接受每个位置(时间点)上的输入,同时经过处理进行信息融合,并可能会在某些位置(时间点)上输出。如下图所示。在这里插入图片描述
    动态地展示整个编码器和解码器,分拆的步骤过程:在这里插入图片描述
    更详细地展开,其实是这样的:
    在这里插入图片描述

三、加入attention注意力机制的Seq2Seq

1、为什么加入attention机制:

提升效果,不会寄希望于把所有的内容都放到一个上下文向量(context vector)中,而是会采用一个叫做注意力模型的模型来动态处理和解码,动态的图如下所示。
在这里插入图片描述
所谓的注意力机制,可以粗略地理解为是一种对于输入的信息,根据重要程度进行不同权重的加权处理(通常加权的权重来源于softmax后的结果)的机制,如下图所示,是一个在解码阶段,简单地对编码器中的hidden states进行不同权重的加权处理的过程。

2、attention机制结构

在这里插入图片描述

3、加入attention机制的Seq2Seq原理
  • 带注意力的解码器RNN接收的嵌入(embedding)和一个初始的解码器隐藏状态(hidden state)。
  • RNN处理输入,产生输出和新的隐藏状态向量(h4),输出被摒弃不用。
  • attention的步骤:使用编码器隐藏状态(hidden state)和h4向量来计算该时间步长的上下文向量(C4)。
  • 把h4和C4拼接成一个向量。
  • 把拼接后的向量连接全连接层和softmax完成解码
  • 每个时间点上重复这个操作
    在这里插入图片描述

也可以把这个动态解码的过程展示成下述图所示的过程。在这里插入图片描述

四、图解Attention Seq2Seq

输入: x = ( x 1 , . . . , x T x ) x = (x_1,...,x_{T_x}) x=(x1,...,xTx)
输出: y = ( y 1 , . . . , y T y ) y = (y_1,...,y_{T_y}) y=(y1,...,yTy)
1、 h t = R N N e n c ( x t , h t − 1 ) h_t = RNN_{enc}(x_t, h_{t-1}) ht=RNNenc(xt,ht1) , Encoder方面接受的是每一个单词word embedding,和上一个时间点的hidden state。输出的是这个时间点的hidden state。
2、 s t = R N N d e c ( y t − 1 ^ , s t − 1 ) s_t = RNN_{dec}(\hat{y_{t-1}},s_{t-1}) st=RNNdec(yt1^,st1) , Decoder方面接受的是目标句子里单词的word embedding,和上一个时间点的hidden state。
3、 c i = ∑ j = 1 T x α i j h j c_i = \sum_{j=1}^{T_x} \alpha_{ij}h_j ci=j=1Txαijhj , context vector是一个对于encoder输出的hidden states的一个加权平均。
4、 α i j = e x p ( e i j ) ∑ k = 1 T x e x p ( e i k ) \alpha_{ij} = \frac{exp(e_{ij})}{\sum_{k=1}^{T_x}exp(e_{ik})} αij=k=1Txexp(eik)exp(eij) , 每一个encoder的hidden states对应的权重。
5、 e i j = s c o r e ( s i , h j ) e_{ij} = score(s_i, h_j) eij=score(si,hj) , 通过decoder的hidden states加上encoder的hidden states来计算一个分数,用于计算权重(4)
6、 s t ^ = t a n h ( W c [ c t ; s t ] ) \hat{s_t} = tanh(W_c[c_t;s_t]) st^=tanh(Wc[ct;st]), 将context vector 和 decoder的hidden states 串起来。
7、 p ( y t ∣ y < t , x ) = s o f t m a x ( W s s t ^ ) p(y_t|y_{<t},x) = softmax(W_s\hat{s_t}) p(yty<t,x)=softmax(Wsst^) ,计算最后的输出概率。
在这里插入图片描述
(1) h t = R N N e n c ( x t , h t − 1 ) h_t = RNN_{enc}(x_t, h_{t-1}) ht=RNNenc(xt,ht1) , Encoder方面接受的是每一个单词word embedding,和上一个时间点的hidden state。输出的是这个时间点的hidden state。
在这里插入图片描述
(2) s t = R N N d e c ( y t − 1 ^ , s t − 1 ) s_t = RNN_{dec}(\hat{y_{t-1}},s_{t-1}) st=RNNdec(yt1^,st1) , Decoder方面接受的是目标句子里单词的word embedding,和上一个时间点的hidden state。在这里插入图片描述
(3) c i = ∑ j = 1 T x α i j h j c_i = \sum_{j=1}^{T_x} \alpha_{ij}h_j ci=j=1Txαijhj , context vector是一个对于encoder输出的hidden states的一个加权平均。
(4) α i j = e x p ( e i j ) ∑ k = 1 T x e x p ( e i k ) \alpha_{ij} = \frac{exp(e_{ij})}{\sum_{k=1}^{T_x}exp(e_{ik})} αij=k=1Txexp(eik)exp(eij) , 每一个encoder的hidden states对应的权重。
(5) e i j = s c o r e ( s i , h j ) e_{ij} = score(s_i, h_j) eij=score(si,hj) , 通过decoder的hidden states加上encoder的hidden states来计算一个分数,用于计算权重(4)
在这里插入图片描述
下一个时间点
在这里插入图片描述
(6) s t ^ = t a n h ( W c [ c t ; s t ] ) \hat{s_t} = tanh(W_c[c_t;s_t]) st^=tanh(Wc[ct;st]), 将context vector 和 decoder的hidden states 串起来。
(7) p ( y t ∣ y < t , x ) = s o f t m a x ( W s s t ^ ) p(y_t|y_{<t},x) = softmax(W_s\hat{s_t}) p(yty<t,x)=softmax(Wsst^) ,计算最后的输出概率。
在这里插入图片描述

五、三种Attention得分计算方式

在luong中提到了三种score的计算方法。这里图解前两种:
在这里插入图片描述

1、方法一

输入是encoder的所有hidden states H: 大小为(hid dim, sequence length)。decoder在一个时间点上的hidden state, s: 大小为(hid dim, 1)。
(1)旋转H为(sequence length, hid dim) 与s做点乘得到一个 大小为(sequence length, 1)的分数。
(2)对分数做softmax得到一个合为1的权重。
(3)将H与第二步得到的权重做点乘得到一个大小为(hid dim, 1)的context vector。
在这里插入图片描述

2、方法二

输入是encoder的所有hidden states H: 大小为(hid dim1, sequence length)。decoder在一个时间点上的hidden state, s: 大小为(hid dim2, 1)。此处两个hidden state的纬度并不一样。
(1)旋转H为(sequence length, hid dim1) 与 Wa [大小为 hid dim1, hid dim 2)] 做点乘, 再和s做点乘得到一个 大小为(sequence length, 1)的分数。
(2)对分数做softmax得到一个合为1的权重。
(3)将H与第二步得到的权重做点乘得到一个大小为(hid dim, 1)的context vector。
在这里插入图片描述


参考文献:本文为网易云课堂 NLP课程学习笔记。

  • 7
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值