可视化神经机器翻译模型(基于注意力机制的Seq2seq模型)

本文详细介绍了基于注意力机制的Seq2seq模型在神经机器翻译中的应用,通过可视化手段帮助理解模型的工作原理。文章涵盖编码器和解码器的构成,上下文向量的生成,以及注意力机制如何提升模型性能,特别是如何处理长句子的挑战。
摘要由CSDN通过智能技术生成

可视化神经机器翻译模型(基于注意力机制的Seq2seq模型)

  序列到序列模型是深度学习模型,在机器翻译、文本摘要和图像字幕等任务中取得了很大的成功。谷歌翻译在2016年底开始在生产中使用这样的模型。两篇开具有创性的论文对该模型进行了解释(Sutskever et al., 2014, Cho et al., 2014)。
  然而我发现,要想很好地理解这个模型并实现它,需要理解一系列建立在彼此基础之上的概念。我想,这些概念如果能直观地表达出来,会更容易理解。这也是我在这篇文章中要做的事情。当然,你需要对深度学习有一定的了解才能较好地理解这篇文章。希望阅读上述两篇论文以及文末链接中的帖子能够有所帮助。
  序列到序列模型可以对对象(单词、字母、图片的特征等等)组成的序列进行处理,并输出由这些对象所组成的另一个序列。训练好的模型的工作方式如下:
在这里插入图片描述  在神经机器翻译中,序列是一系列的单词,并且一个接一个的处理。输出同样是一系列的单词。
在这里插入图片描述

剖析算法核心

  该算法的核心部分由一个编码器和一个解码器组成。
  编码器对输入序列中的每个元素进行处理,它将捕捉到的信息编译成一个向量(称为上下文)。在处理完整个输入序列后,编码器上下文发送到解码器解码器开始逐项生成输出序列。
在这里插入图片描述
  同样也适用于机器翻译之中。
在这里插入图片描述
  在机器翻译的情况下,上下文是一个向量(基本上是由数字组成的数组)。编码器解码器往往都是循环神经网络。(一定要看Luis Serrano的A friendly introduction to Recurrent Neural Networks,了解RNNs的相关知识)。
在这里插入图片描述
  上下文是一个浮点数组成的向量。在本篇文章的后面,我们将通过给数值较高的单元格分配更亮的颜色来对向量进行可视化。
  您可以在建立模型时设置上下文向量的大小。它基本上是编码器RNN中隐层单元的数量。这些可视化示例中展示了一个长度为4的向量,但在实际应用中,上下文向量的大小会是256、512或1024。
  根据设计,一个RNN在每一步均需要两个输入:一个输入(在编码器中指的是来自输入句子的一个单词),和一个隐藏状态。但是,此处的词,需要用一个向量来表示。为了将一个词转化为一个向量,我们使用“词嵌入”算法。该算法将单词转化到向量空间,并捕捉到了很多单词的意义/语义信息(例如 king -man + woman = queen)。
在这里插入图片描述
  我们需要在处理之前将输入的单词变成向量。该转换可以用词嵌入算法来完成。我们可以使用预先训练的词嵌入模型,或者在我们的数据集上训练我们自己的词嵌入模型。词嵌入向量大小通常是200或300维,为了简单起见,我们展示的是大小为4的向量。
  现在我们已经介绍了主要的向量/张量,让我们回顾一下RNN的机制,并建立一种可视化语言来描述这些模型。
在这里插入图片描述
  RNN的下一个步骤是取第二个输入向量和隐藏状态#1来创建该时刻步骤的输出。在后面的文章中,我们会用诸如这样的动画来描述神经机器翻译模型中的向量。
  在下面的可视化过程中,编码器解码器的每一次运行结果都是RNN模型处理其输入并在该时刻产生的输出。由于编码器解码器都是RNN,所以每个RNN在每次做一些处理的时候,它都会根据自己当前的输入以及可见的前期输入来更新自己的隐藏状态。
  让我们看看编码器隐藏状态。注意最后一个隐藏状态实际上是我们传递给解码器上下文
在这里插入图片描述
  解码器也有一个隐藏的状态,它从一个步骤传递到下一个步骤。只是因为我们现在关注的是模型的主要部分,所以没有在这个图形中可视化。
  现在让我们看看另一种可视化序列到序列模型的方法。这个动画会让你更容易理解这些模型。这就是所谓的“非滚动”视图,在这个视图中,我们不显示一个解码器,而是逐步显示每一个步骤的执行过程。这样我们就可以查看每个步骤的输入和输出。
在这里插入图片描述

现在来关注以下内容

  上下文向量是这类模型的瓶颈,这给模型处理长句子带来了挑战。Bahdanau et al., 2014Luong et al., 2015提出了一个解决方案。这些论文引入并完善了一种名为“注意力”的技术,极大的提高了机器翻译的质量。注意力帮助模型根据其自身的需要对输入序列的相关部分予以关注。
在这里插入图片描述
  在步骤7,注意机制使解码器在生成英文翻译之前,将注意力集中在 “étudiant”(法语中的 “学生”)这个词上。这种放大输入序列中相关部分信号的能力,使得注意力模型比没有注意力的模型产生更好的结果。
  让我们继续看一下这种高层次抽象的注意力模型。注意力模型与经典的序列到序列模型主要有两个方面的不同:
  首先,编码器将更多的数据传递给解码器编码器不再是将编码阶段的最后一个隐藏状态传递给解码器,而是将所有隐藏状态传递给解码器
在这里插入图片描述
  其次,注意力解码器在产生输出之前会多做一个步骤。为了对输入序列中与当前解码步骤相关的部分予以关注,解码器做了以下工作。
1、查看它接收到的编码器隐藏状态集–每个编码器隐藏状态都与输入句子中的某个词有强关联。
2、给每个隐藏状态打分(我们先忽略打分是如何进行的)。
3、将每个隐藏状态乘以它的softmax得分,从而放大高分的隐藏状态,淹没低分的隐藏状态
在这里插入图片描述
  这个评分机制运作在解码器侧的每个步骤。
  现在让我们用下面的可视化方式把整个事情整合起来,看看注意力过程是如何运作的。
1、注意力解码器RNN接收到两部分信息:<END>标签的嵌入,以及一个初始化的解码器隐藏状态
2、RNN对其输入进行处理,产生一个输出和一个新的隐藏状态向量(h4)。其中输出被丢弃。
3、注意力步骤。我们使用编码器隐藏状态h4向量来计算当前步骤的上下文向量(C4)。
4、我们将h4C4拼接成一个向量。
5、我们将这个向量通过一个前馈神经网络(一个与模型共同训练的网络)。
6、前馈神经网络的输出表示当前步骤的输出单词。
7、重复下一个时间步骤。
在这里插入图片描述
  我们以另一种方式观察在每一个解码步骤中注意的是输入句子的哪一部分。
在这里插入图片描述
  请注意,这个模型并不是无脑地将输出处的第一个字与输入处的第一个字匹配。它实际上从训练阶段就学会了如何匹配该语言对中的单词(在我们的例子中是法语和英语)。关于这种机制的精确性,我们举一个论文中的例子。
在这里插入图片描述
  你可以看到模型在输出"European Economic Area"时是如何正确关注的。在法语中,这些词的顺序与英语相反(“européenne économique zone”)。而句子中的其他词的顺序却是相同的。
  如果你觉得你已经准备好学习实现这个模型,一定要学习TensorFlow的神经机器翻译(seq2seq)教程
  优秀的教程:
[1] Natural Language Processing Nanodegree Program
[2] Attention Is All You Need
[3] Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention)

去年,谷歌发布了 Google Neural Machine Translation (GNMT),即谷歌神经机器翻译,一个 sequence-to-sequence (“seq2seq”) 的模型。现在,它已经用于谷歌翻译的产品系统。   虽然消费者感受到的提升并不十分明显,谷歌宣称,GNMT 对翻译质量带来了巨大飞跃。   但谷歌想做的显然不止于此。其在官方博客表示:“由于外部研究人员无法获取训练这些模型的框架,GNMT 的影响力受到了束缚。”   如何把该技术的影响力最大化?答案只有一个——开源。   因而,谷歌于昨晚发布了 tf-seq2seq —— 基于 TensorFlow 的 seq2seq 框架。谷歌表示,它使开发者试验 seq2seq 模型变得更方便,更容易达到一流的效果。另外,tf-seq2seq 的代码库很干净并且模块化,保留了全部的测试覆盖,并把所有功能写入文件。   该框架支持标准 seq2seq 模型的多种配置,比如编码器/解码器的深度、注意力机制(attention mechanism)、RNN 单元类型以及 beam size。这样的多功能性,能帮助研究人员找到最优的超参数,也使它超过了其他框架。详情请参考谷歌论文《Massive Exploration of Neural Machine Translation Architectures》。   上图所示,是一个从中文到英文的 seq2seq 翻译模型。每一个时间步骤,编码器接收一个汉字以及它的上一个状态(黑色箭头),然后生成输出矢量(蓝色箭头)。下一步,解码器一个词一个词地生成英语翻译。在每一个时间步骤,解码器接收上一个字词、上一个状态、所有编码器的加权输出和,以生成下一个英语词汇。雷锋网(公众号:雷锋网)提醒,在谷歌的执行中,他们使用 wordpieces 来处理生僻字词。   据雷锋网了解,除了机器翻译,tf-seq2seq 还能被应用到其他 sequence-to-sequence 任务上;即任何给定输入顺序、需要学习输出顺序的任务。这包括 machine summarization、图像抓取、语音识别、对话建模。谷歌自承,在设计该框架时可以说是十分地仔细,才能维持这个层次的广适性,并提供人性化的教程、预处理数据以及其他的机器翻译功能。   谷歌在博客表示: “我们希望,你会用 tf-seq2seq 来加速(或起步)你的深度学习研究。我们欢迎你对 GitHub 资源库的贡献。有一系列公开的问题需要你的帮助!”   GitHub 地址:https://github.com/google/seq2seq   GitHub 资源库:https://google.github.io/seq2seq/nmt/ 标签:tensorflow  seq2seq  谷歌  机器学习
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值