seq2seq通俗理解----编码器和解码器(TensorFlow实现)

本文介绍了seq2seq模型,包括编码器和解码器的工作原理,以及在机器翻译任务中的应用。在训练模型时使用编码器将输入序列转化为固定长度的背景变量,解码器则根据背景变量生成输出序列。文章还探讨了贪婪搜索、穷举搜索和束搜索三种不同的序列预测方法,并提及了BLEU得分作为机器翻译结果的评估标准。最后,提到了使用TensorFlow实现seq2seq模型的代码示例。
摘要由CSDN通过智能技术生成

1. 什么是seq2seq

在⾃然语⾔处理的很多应⽤中,输⼊和输出都可以是不定⻓序列。以机器翻译为例,输⼊可以是⼀段不定⻓的英语⽂本序列,输出可以是⼀段不定⻓的法语⽂本序列,例如:

英语输⼊:“They”、“are”、“watching”、“.”

法语输出:“Ils”、“regardent”、“.”

当输⼊和输出都是不定⻓序列时,我们可以使⽤编码器—解码器(encoder-decoder)或者seq2seq模型。序列到序列模型,简称seq2seq模型。这两个模型本质上都⽤到了两个循环神经⽹络,分别叫做编码器和解码器。编码器⽤来分析输⼊序列,解码器⽤来⽣成输出序列。两 个循环神经网络是共同训练的。

下图描述了使⽤编码器—解码器将上述英语句⼦翻译成法语句⼦的⼀种⽅法。在训练数据集中,我们可以在每个句⼦后附上特殊符号“<eos>”(end of sequence)以表⽰序列的终⽌。编码器每个时间步的输⼊依次为英语句⼦中的单词、标点和特殊符号“<eos>”。下图中使⽤了编码器在 最终时间步的隐藏状态作为输⼊句⼦的表征或编码信息。解码器在各个时间步中使⽤输⼊句⼦的 编码信息和上个时间步的输出以及隐藏状态作为输⼊。我们希望解码器在各个时间步能正确依次 输出翻译后的法语单词、标点和特殊符号“<eos>”。需要注意的是,解码器在最初时间步的输⼊ ⽤到了⼀个表⽰序列开始的特殊符号“”(beginning of sequence)。

2. 编码器

编码器的作⽤是把⼀个不定⻓的输⼊序列变换成⼀个定⻓的背景变量 c,并在该背景变量中编码输⼊序列信息。常⽤的编码器是循环神经⽹络。

让我们考虑批量⼤小为1的时序数据样本。假设输⼊序列是 x1, . . . , xT,例如 xi 是输⼊句⼦中的第 i 个词。在时间步 t,循环神经⽹络将输⼊ xt 的特征向量 xt 和上个时间步的隐藏状态 h t − 1 h_{t-1} ht1变换为当前时间步的隐藏状态ht。我们可以⽤函数 f 表达循环神经⽹络隐藏层的变换:

h t = f ( x t , h t − 1 ) h_t=f(x_t,h_{t-1}) ht=f(xt,ht1)

接下来,编码器通过⾃定义函数 q 将各个时间步的隐藏状态变换为背景变量:

c = q ( h 1 , . . . , h T ) c=q(h_1,...,h_T) c=q(h1,...,hT)

例如,当选择 q(h1, . . . , hT ) = hT 时,背景变量是输⼊序列最终时间步的隐藏状态hT

以上描述的编码器是⼀个单向的循环神经⽹络,每个时间步的隐藏状态只取决于该时间步及之前的输⼊⼦序列。我们也可以使⽤双向循环神经⽹络构造编码器。在这种情况下,编码器每个时间步的隐藏状态同时取决于该时间步之前和之后的⼦序列(包括当前时间步的输⼊),并编码了整个序列的信息。

3. 解码器

刚刚已经介绍,编码器输出的背景变量 c 编码了整个输⼊序列 x1, . . . , xT 的信息。给定训练样本中的输出序列 y1, y2, . . . , yT′ ,对每个时间步 t′(符号与输⼊序列或编码器的时间步 t 有区别),解码器输出 yt′ 的条件概率将基于之前的输出序列 y 1 , . . . , y t ′ − 1 y_1,...,y_{t^{′}-1} y1,...,yt1 和背景变量 c,即:

P ( y t ′ ∣ y 1 , . . . , y t ′ − 1 , c ) P(y_{t^{′}}|y_1,...,y_{t^{′}-1},c) P(yty1,...,yt1,c)

为此,我们可以使⽤另⼀个循环神经⽹络作为解码器。在输出序列的时间步 t′,解码器将上⼀时间步的输出 y t ′ − 1 y_{t^{′}-1} yt1 以及背景变量 c 作为输⼊,并将它们与上⼀时间步的隐藏状态 s t ′ − 1 s_{t^{′}-1} st1 变换为当前时间步的隐藏状态st′。因此,我们可以⽤函数 g 表达解码器隐藏层的变换:

s t ′ = g ( y t ′ − 1 , c , s t ′ − 1 ) s_{t^{′}}=g(y_{t^{′}-1},c,s_{t^{′}-1}) st=g(yt1,c,st1)

有了解码器的隐藏状态后,我们可以使⽤⾃定义的输出层和softmax运算来计算 P ( y t ′ ∣ y 1 , . . . , y t ′ − 1 , c ) P(y_{t^{′}}|y_1,...,y_{t^{′}-1},c) P(y

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值