LSTM
文章平均质量分 93
silent56_th
大学生一枚,对机器学习、图像处理感兴趣,偶尔也会刷刷leetcode或者hihocoder。希望在这里可以和大家多多交流,互相学习。
展开
-
[论文阅读笔记] Massive Exploration of Neural Machine Translation Architectures
最近想要看看Attention的机制,然后被网上博客引到这个论文,想要了解一下NMT(Neural Machine Translation)的架构。这篇paper没有发表在会议上,出自Google Brain,并公开了seq2seq的NMT框架代码。个人觉得文中的结论不太可信,但是对于NMT的介绍还是足够清晰。这里记录一些文中有意思的点,以及一些笔者自己的思考,欢迎指教。NMT框架详见文中Secti原创 2017-07-10 22:37:42 · 1380 阅读 · 0 评论 -
Keras之LSTM源码阅读笔记
这里目前为止只是博主阅读Keras中LSTM源码的草稿笔记,内容不全,没有清晰的逻辑,只是堆砌个人想法。参考文献: 1. keras的官方相关文档 2. LSTM原论文 3. keras的RNN源码1. 接口研究1.1. Recurrent接口Recurrent是LSTM的父类(实际是通过SimpleRNN间接继承),定义所有RNNs的统一接口。1.1.1. implementation:im原创 2017-06-18 23:45:22 · 8377 阅读 · 3 评论