排序:
默认
按更新时间
按访问量

一个基于Tensorflow的神经网络机器翻译系统

一个基于Tensorflow的神经网络机器翻译系统 Github地址:https://github.com/zhaocq-nlp/NJUNMT-tf 系统完全基于Tensorflow最基本的array_ops,math_ops, nn_ops实现。 实现了: 1. sequence-to-...

2018-01-16 21:52:45

阅读数:1083

评论数:0

神经网络机器翻译Neural Machine Translation(2): Attention Mechanism

端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。前篇NMT介绍的基本RNN Encoder-Decoder结构,RNNenc将源语言句子压缩成一个固定维度的向量是造成性能瓶颈的主要原因。为此,Bengio研...

2016-04-04 18:48:13

阅读数:18295

评论数:5

神经网络机器翻译Neural Machine Translation(1): Encoder-Decoder Architecture

端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。本文首先将简要介绍传统的统计机器翻译方法以及神经网络在机器翻译中的应用,然后介绍NMT中基本的“编码-解码”框架(Encoder-Decoder)。 转载请注...

2016-04-03 09:35:40

阅读数:22222

评论数:3

神经网络机器翻译Neural Machine Translation(5): Gradient-based Optimization Algorithms

本文将介绍近两年应用到端到端的神经网络模型中的一些优化方法。 转载请注明出处:http://blog.csdn.net/u011414416/article/details/51567362本文将介绍近两年应用到端到端的神经网络模型中的一些参数优化方法,包括SGD、Momentum、NAG、Ada...

2016-06-02 15:18:08

阅读数:1749

评论数:4

神经网络机器翻译Neural Machine Translation(4): Modeling Coverage & MRT

端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。前面介绍了NMT的基本RNN Encoder-Decoder结构以及Attention Mechanism。研究这展开了一系列的工作 转载请注明出处:http...

2016-06-02 15:05:49

阅读数:3248

评论数:0

从NN到RNN再到LSTM(4): Gated Recurrent Units

本文将简要介绍GRU的相关知识。 转载请注明出处:http://blog.csdn.net/u011414416/article/details/51433875本文参考的文章有: Kyunghyun Cho, Bart van Merrenboer, Caglar Gulcehre Dzmit...

2016-05-17 10:07:34

阅读数:2619

评论数:1

Gaussian LDA(2): Gaussian LDA简介

Latent Dirichlet Allocation (LDA)是一个主题模型,能够对文本进行建模,得到文档的主题分布。但是LDA得到的每个主题是一个在词项上的多项分布,这个分布非常稀疏。为了更好地刻画语义连贯性,有研究者提出了Gaussian LDA,本文简单介绍该模型。 转载请注明出处:ht...

2016-04-29 11:03:46

阅读数:3213

评论数:0

Gaussian LDA(1): LDA回顾以及变分EM

Latent Dirichlet Allocation (LDA)是一个主题模型,能够对文本进行建模,得到文档的主题分布。常用的模型参数估计方法有Gibbs Sampling和Variational Inference,网上有非常多关于LDA的介绍,最为经典的例如Rickjin的《LDA数学八卦》...

2016-04-16 15:23:48

阅读数:4813

评论数:4

神经网络机器翻译Neural Machine Translation(3): Achieving Open Vocabulary Neural MT

端到端的神经网络机器翻译(End-to-End Neural Machine Translation)是近几年兴起的一种全新的机器翻译方法。前面介绍了NMT的基本RNN Encoder-Decoder结构以及Attention Mechanism。但是经典的Encoder-Decoder结构存在一...

2016-04-09 22:53:44

阅读数:3990

评论数:1

从NN到RNN再到LSTM(3): 长短时记忆LSTM简介及计算

本文将简要介绍RNN存在的梯度消失和梯度爆炸问题,然后介绍长短时记忆(Long Short-Term memory,LSTM)的相关公式及推导过程。 转载请注明出处:http://blog.csdn.net/u011414416/article/details/46724699以下内容主要引自Al...

2015-07-02 11:48:21

阅读数:11459

评论数:28

从NN到RNN再到LSTM(2): 循环神经网络RNN简介及计算

本文将简要介绍循环神经网络(Recurrent Neural Network,RNN),以及RNN的前向计算和误差反向传播过程。 转载请注明出处:http://blog.csdn.net/u011414416/article/details/46709965以下内容主要引自Alex Graves写...

2015-07-01 14:28:55

阅读数:6425

评论数:9

从NN到RNN再到LSTM(1):神经网络NN前馈和误差反向传播

本文将简要介绍神经网络(Neural Network,NN)的相关公式及推导,包括前馈和误差反向传播过程。

2015-06-30 13:33:31

阅读数:7254

评论数:5

提示
确定要删除当前文章?
取消 删除
关闭
关闭