![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
文献阅读笔记
刘爱然
焦虑与质疑并不能创造价值,反而会阻碍我们迈向未来的脚步。能够让我们走向未来的,是坚定的信心、直面现实的勇气和直面未来的行动。
展开
-
CAM-RNN:基于RNN的视频字幕共同注意力模型
CAM-RNN: Co-Attention Model Based RNN for Video Captioning CAM-RNN:基于RNN的视频字幕共同注意力模型 1.创新点 1.提出了一个两层的视觉注意力模型,能够自动关注最相关的帧和每一帧中突出的区域。 2.提出了一个短语级别的文本注意力模型。 3.提出了平衡门,平衡视觉注意力和文本注意力之间的影响大小。 2.研究领域目前存在...原创 2020-05-06 10:16:17 · 649 阅读 · 2 评论 -
一种初始化使用ReLU激活函数的RNN权重的简单方式
A Simple Way to Initialize Recurrent Networks of Rectified Linear Units原创 2020-04-02 11:23:01 · 1086 阅读 · 1 评论 -
EleAtt-RNN: Adding Attentiveness to Neurons in Recurrent Neural Networks
EleAtt-RNN: Adding Attentiveness to Neurons in Recurrent Neural Networks EleAtt-RNN:在循环神经网络的神经元当中加入注意力 1.创新点 现在研究者研究RNN,把注意力集中在现在和之前的输入对输出的贡献上,这篇文章(为了简单,下称本文,并不是说这篇文章是我写的,我只是在做阅读这篇文章的笔记)研究了在一个输入向量...原创 2020-03-24 10:38:58 · 571 阅读 · 1 评论 -
怎样阅读神经网络文献
1.创新点 2.研究领域目前存在的问题以及已有的解决方法 3.本文提出的解决此问题的方法 4.设计的网络结构以及原理 5.本文方法的不足 6.以后的工作方向 7.实验设计 8.是否用了网上数据集,用了什么数据集 9.自己关于这篇文章的想法以及存在的问题 ...原创 2020-03-05 09:22:45 · 198 阅读 · 0 评论