- 博客(4)
- 问答 (1)
- 收藏
- 关注
翻译 Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks翻译
github:https://github.com/stanfordnlp/treelstm. 摘要 由于长短期记忆网络(LSTM)这种具有复杂单元的循环神经网络具有良好的表示序列信息的能力,其在多种序列模型任务中都取得了非常好的结果。到目前为止一直被使用的LSTM是一个线性结构。然而,自然语言表现出自然地将单词与短语组合在一起的句法属性。我们引入了Tree-LSTM,将LSTM推广到树状的网络拓...
2019-01-23 16:52:23 2519 1
翻译 Teacher Forcing for Recurrent Neural Networks
Teacher Forcing是一种用来快速而有效地训练循环神经网络模型的方法,这种方法以上一时刻的输出作为下一时刻的输入。 它是一种网络训练方法,对于开发用于机器翻译,文本摘要和图像字幕的深度学习语言模型以及许多其他应用程序至关重要。 阅读这篇文章后,你会知道: 训练循环神经网络的问题是使用上一时刻的输出作为下一时刻的输入。 在训练这些类型的循环网络时,Teacher Forcing是...
2019-01-21 11:04:12 5393
翻译 Sequence to Sequence Learning with Neural Networks翻译
摘要 在非常困难的学习任务上,深度神经网络(DNNs)模型能达到非常好的效果。虽然DNNs在大量有标记的训练数据中有很好的效果,但它们不能用于将一个序列映射到另一个序列。在这篇论文中,我们提出了一种通用的端到端序列学习方法,它对序列结构做出了最小化的假设。我们的方法使用了一个多层的长短期记忆网络(LSTM)将输入序列映射成一个固定维度的向量,然后再用另外一个深层LSTM将这个向量解码成目标序列。我...
2019-01-15 10:21:20 1271
翻译 MASKGAN: BETTER TEXT GENERATION VIA FILLING IN THE __ 翻译
摘要 用来进行文本生成的模型经常是使用自回归模型或者Seq2Seq模型。这些模型通过按顺序抽样单词进行文本的生成,并且每一时刻生成的单词由前一时刻生成的单词决定,这作为机器翻译以及文本摘要的最新实现技术。这些评价指标由困惑度(validation perplexity)来定义,尽管困惑度并不是评价文本生成质量的直接测量方法。另外,这些模型通过使用最大似然(maximum likelihood)和给...
2019-01-06 18:20:00 1431 4
空空如也
VC++中如何实现office中通过文件菜单打开命令,在试图中显示文本内容并且可以编辑?
2015-06-14
TA创建的收藏夹 TA关注的收藏夹
TA关注的人