- 博客(5)
- 资源 (13)
- 收藏
- 关注
原创 神经网络机器翻译Neural Machine Translation(2): Attention Mechanism
端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。前篇NMT介绍的基本RNN Encoder-Decoder结构,RNNenc将源语言句子压缩成一个固定维度的向量是造成性能瓶颈的主要原因。为此,Bengio研究组提出基于注意力(Attention)的NMT,能较好的缓解这一问题并且能更好地处理长距离依赖。本文将
2016-04-04 18:48:13 25897 7
原创 神经网络机器翻译Neural Machine Translation(1): Encoder-Decoder Architecture
端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。本文首先将简要介绍传统的统计机器翻译方法以及神经网络在机器翻译中的应用,然后介绍NMT中基本的“编码-解码”框架(Encoder-Decoder)。转载请注明出处:http://blog.csdn.net/u011414416/article/details/
2016-04-03 09:35:40 28063 3
原创 Gaussian LDA(2): Gaussian LDA简介
Latent Dirichlet Allocation (LDA)是一个主题模型,能够对文本进行建模,得到文档的主题分布。但是LDA得到的每个主题是一个在词项上的多项分布,这个分布非常稀疏。为了更好地刻画语义连贯性,有研究者提出了Gaussian LDA,本文简单介绍该模型。转载请注明出处:http://blog.csdn.net/u011414416/article/details/511884
2016-04-29 11:03:46 5098 2
原创 Gaussian LDA(1): LDA回顾以及变分EM
Latent Dirichlet Allocation (LDA)是一个主题模型,能够对文本进行建模,得到文档的主题分布。常用的模型参数估计方法有Gibbs Sampling和Variational Inference,网上有非常多关于LDA的介绍,最为经典的例如Rickjin的《LDA数学八卦》。本文旨在推导变分EM的全部过程。转载请注明出处:http://blog.csdn.net/u0114
2016-04-16 15:23:48 7430 3
原创 神经网络机器翻译Neural Machine Translation(3): Achieving Open Vocabulary Neural MT
端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。前面介绍了NMT的基本RNN Encoder-Decoder结构以及Attention Mechanism。但是经典的Encoder-Decoder结构存在一个明显的问题,就是源端与目标端都使用固定大小的词典,OOV词通常用一个UNK表示,如果目标端词典太大则会
2016-04-09 22:53:44 5263 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人