自然语言处理
xumuteqiu
xujun
展开
-
机器阅读理解必读论文
论文1:2015 NIPS Teaching Machines to Read and Comprehend 论文2:2016 ACL Text Understanding with the Attention Sum Reader Network 论文3:2017 ACL Attention-over-Attention Neural Networks for Reading Comprehe原创 2017-08-26 16:07:13 · 1078 阅读 · 0 评论 -
循环神经网络RNN必读
第一部分 RNN简介:https://zhuanlan.zhihu.com/p/22266022 用python和theano实现一个RNN:https://zhuanlan.zhihu.com/p/22289383 理解随时间反向传播算法(BPTT)和梯度消失问题:https://zhuanlan.zhihu.com/p/22338087 用Python和Theano实现GRU/LSTM循原创 2017-08-28 16:10:04 · 333 阅读 · 0 评论 -
seq2seq必读文章
1、https://zhuanlan.zhihu.com/p/27608348 2、https://zhuanlan.zhihu.com/p/28054589原创 2017-09-15 10:37:29 · 504 阅读 · 0 评论 -
Attention is all you need 论文记录
摘要:传统的序列模型主要是由复合的RNN和CNN组成,包括encoder和decoder,目前性能最佳的模型使用的是encoder+decoder+attention的机制,这篇文章提供了一个简单的网络结构来实现基于attention的翻译模型,完全不使用CNN和RNN。通过对两个机器翻译任务的实验,实验结果表明,模型训练速度更快,效果比目前现存的实验结果要好。在WMT2014数据集上的BLEU的原创 2017-09-06 16:50:56 · 432 阅读 · 0 评论