浅析谷歌tensorflow官方文档中的seq2seq代码

自然语言处理是深度学习亟待攻克的新领域,实力雄厚的IT大企业比如谷歌、IBM、脸书都不遗余力招揽人才开展前沿研究,抢占话语权。比如谷歌开源了深度学习工具包tensorflow意图打造谷歌生态圈,脸书也不甘落后打造了更加简洁易用的Pytorch,还有亚马逊的MAXNET。一段时间,在自然语言处理上,循环神经网络取得了明显的进展,特别是在机器翻译领域,不少学者推陈出新不断创造出新的技术提升翻译质量。seq2seq就是应用比较广泛的输入输出网络,采用了Encoder–Decoder 结构。先是以循环神经网络为基本的Encoder–Decoder结构(如下图),然后就有了更为复杂的双向多层循环神经网络注意力机制seq2seq模型。首先,介绍下这些概念:

什么是 seq2seq?
seq2seq 是一个 Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列, Encoder 中将一个可变长度的信号序列变为固定长度的向量表达,Decoder 将这个固定长度的向量变成可变长度的目标的信号序列。
这个结构最重要的地方在于输入序列和输出序列的长度是可变的,可以用于翻译,聊天机器人,句法分析,文本摘要等。
作者:不会停的蜗牛
链接:http://www.jianshu.com/p/1d3de928f40c
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

Encoder–Decoder 结构?
Cho 在 2014 年提出了 Encoder–Decoder 结构,即由两个 RNN 组成,
https://arxiv.org/pdf/1406.1078.pdf
Encoder-Decoder
(其中的 RNNCell 可以用 RNN ,GRU,LSTM 等结构)
作者:不会停的蜗牛
链接:http://www.jianshu.com/p/1d3de928f40c
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

简单的Encoder-Decoder模型中,利用循环神经网络将前面所有的输入(比如文本单词序列)压缩到一个向量中,然后把这个向量作为输入传递至解码模型中。而注意力机制则是将输入中每个单词利用循环神经网络压缩成一个向量,然后将这些向量进行线性组合后传递至解码模型中,具体请阅读Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio的文章。如下图(引用自http://www.jianshu.com/p/c294e4cb4070):
注意力机制

谷歌在这些方面推进地比较深入,然而,今年脸书也不甘寂寞,直接提出了一个全部是卷积神经网络的注意力模型,表面上颠覆了循环神经网络的风头,很快,谷歌进行了反击,提出了Attention is all you need,既不用循环神经网络,也不用卷积神经网络,只用注意力效果依然不得了。

本博客主要介绍谷歌tensorflow中

去年,谷歌发布了 Google Neural Machine Translation (GNMT),即谷歌神经机器翻译,一个 sequence-to-sequence (“seq2seq”) 的模型。现在,它已经用于谷歌翻译的产品系统。   虽然消费者感受到的提升并不十分明显,谷歌宣称,GNMT 对翻译质量带来了巨大飞跃。   但谷歌想做的显然不止于此。其在官方博客表示:“由于外部研究人员无法获取训练这些模型的框架,GNMT 的影响力受到了束缚。”   如何把该技术的影响力最大化?答案只有一个——开源。   因而,谷歌于昨晚发布了 tf-seq2seq —— 基于 TensorFlow 的 seq2seq 框架。谷歌表示,它使开发者试验 seq2seq 模型变得更方便,更容易达到一流的效果。另外,tf-seq2seq代码库很干净并且模块化,保留了全部的测试覆盖,并把所有功能写入文件。   该框架支持标准 seq2seq 模型的多种配置,比如编码器/解码器的深度、注意力机制(attention mechanism)、RNN 单元类型以及 beam size。这样的多功能性,能帮助研究人员找到最优的超参数,也使它超过了其他框架。详情请参考谷歌论文《Massive Exploration of Neural Machine Translation Architectures》。   上图所示,是一个从文到英文的 seq2seq 翻译模型。每一个时间步骤,编码器接收一个汉字以及它的上一个状态(黑色箭头),然后生成输出矢量(蓝色箭头)。下一步,解码器一个词一个词地生成英语翻译。在每一个时间步骤,解码器接收上一个字词、上一个状态、所有编码器的加权输出和,以生成下一个英语词汇。雷锋网(公众号:雷锋网)提醒,在谷歌的执行,他们使用 wordpieces 来处理生僻字词。   据雷锋网了解,除了机器翻译,tf-seq2seq 还能被应用到其他 sequence-to-sequence 任务上;即任何给定输入顺序、需要学习输出顺序的任务。这包括 machine summarization、图像抓取、语音识别、对话建模。谷歌自承,在设计该框架时可以说是十分地仔细,才能维持这个层次的广适性,并提供人性化的教程、预处理数据以及其他的机器翻译功能。   谷歌在博客表示: “我们希望,你会用 tf-seq2seq 来加速(或起步)你的深度学习研究。我们欢迎你对 GitHub 资源库的贡献。有一系列公开的问题需要你的帮助!”   GitHub 地址:https://github.com/google/seq2seq   GitHub 资源库:https://google.github.io/seq2seq/nmt/ 标签:tensorflow  seq2seq  谷歌  机器学习
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值