Sequence to Sequence Learning with Neural Networks论文笔记

本文探讨了使用多层LSTM进行序列到序列学习的方法,通过一个LSTM编码输入序列,然后用另一个LSTM从编码向量解码目标序列。这种方法解决了DNN无法处理序列映射到序列任务的问题,并在机器翻译等应用中展示其潜力。
摘要由CSDN通过智能技术生成

摘要

Dnn是强大的模型,在困难的学习任务上取得了出色的表现。尽管每当有很大的标签训练集时,DNN都能很好的工作,但是他们不能用于将序列映射到序列的工作。在本文中,我们提出了一般端到端的方法,对序列标签做出最小假设。我们的方法使用多层LSTM将输入序列映射到固定维度的向量,然后在使用另一个深LSTM来从向量中解码目标序列。

Introduction

(1)DNN介绍,举例。很强大

(2)尽管DNN具有灵活性和功能,但只能应用于其输入和目标可以用固定维度向量进行明确编码的问题。

(3)本文的想法,用一个LSTM读输入序列,一次一个时间步,用来获得大的固定维度向量,然后用另一个LSTM来从输入中提取序列。第二个LSTM实质上是循环神经网络模型,只是输入序列是有条件的。

(4)已经有很多相关的尝试来解决用神经网络进行一般的序列到序列的学习问题。举例。

(5)LSTM反向读取输入句子,因为这样做会在数据中引入许多短期依赖关系,从而使优化问题更容易。

(6)BLEU是一种用于评估从一种自然语言到另一种自然语言的机器翻译的质量的算法。

(7)SMT,统计机器翻译,其翻译是根据统计模型生成的,其参数来源于双语文本语料库的分析。

(8)LSTM的有用属性是它学习将可变长度的输入句子映射到固定向量表示。

模型:

(1)RNN是前馈神经网络序列的自然泛化(generalization)

每当输入输出之间的映射提前知道时

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值