自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 问答 (1)
  • 收藏
  • 关注

翻译 Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks翻译

github:https://github.com/stanfordnlp/treelstm. 摘要 由于长短期记忆网络(LSTM)这种具有复杂单元的循环神经网络具有良好的表示序列信息的能力,其在多种序列模型任务中都取得了非常好的结果。到目前为止一直被使用的LSTM是一个线性结构。然而,自然语言表现出自然地将单词与短语组合在一起的句法属性。我们引入了Tree-LSTM,将LSTM推广到树状的网络拓...

2019-01-23 16:52:23 2519 1

翻译 Teacher Forcing for Recurrent Neural Networks

Teacher Forcing是一种用来快速而有效地训练循环神经网络模型的方法,这种方法以上一时刻的输出作为下一时刻的输入。   它是一种网络训练方法,对于开发用于机器翻译,文本摘要和图像字幕的深度学习语言模型以及许多其他应用程序至关重要。   阅读这篇文章后,你会知道: 训练循环神经网络的问题是使用上一时刻的输出作为下一时刻的输入。 在训练这些类型的循环网络时,Teacher Forcing是...

2019-01-21 11:04:12 5393

翻译 Sequence to Sequence Learning with Neural Networks翻译

摘要 在非常困难的学习任务上,深度神经网络(DNNs)模型能达到非常好的效果。虽然DNNs在大量有标记的训练数据中有很好的效果,但它们不能用于将一个序列映射到另一个序列。在这篇论文中,我们提出了一种通用的端到端序列学习方法,它对序列结构做出了最小化的假设。我们的方法使用了一个多层的长短期记忆网络(LSTM)将输入序列映射成一个固定维度的向量,然后再用另外一个深层LSTM将这个向量解码成目标序列。我...

2019-01-15 10:21:20 1271

翻译 MASKGAN: BETTER TEXT GENERATION VIA FILLING IN THE __ 翻译

摘要 用来进行文本生成的模型经常是使用自回归模型或者Seq2Seq模型。这些模型通过按顺序抽样单词进行文本的生成,并且每一时刻生成的单词由前一时刻生成的单词决定,这作为机器翻译以及文本摘要的最新实现技术。这些评价指标由困惑度(validation perplexity)来定义,尽管困惑度并不是评价文本生成质量的直接测量方法。另外,这些模型通过使用最大似然(maximum likelihood)和给...

2019-01-06 18:20:00 1431 4

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除