神经网络
文章平均质量分 57
搬砖没人要
这个作者很懒,什么都没留下…
展开
-
Non-local Neural Networks 论文翻译
本文为自己学习时,理解后的翻译,仅用作记录学习,若有侵权,联系我删除,由于直接从word复制过来,公式出现错误,学习时可与原论文一起看。卷积和递归运算都是在空间或时间上处理一个局部领域的信息,所以,长期依赖关系只有重复应用这些操作的时候,数据的逐步传播,才能被捕捉到。重复局部操作会有几个限制:它的计算效率很低 网络的优化困难 基于以上两点,它使得建立多联系的模型变得困难(在离得较远...翻译 2018-12-20 10:27:29 · 3001 阅读 · 0 评论 -
Network In Network - Global Average Pooling部分翻译
本文仅用作学习记录,一下内容均为自己边学习边翻译记录所得。Global Average Pooling: 传统的卷积神经网络会在较低层执行卷积操作。对于用来的分类网络来说,将最后一层卷积的feature map向量化,然后送入全连接层,最后就是一个softmax 的logistic层。这样的结构将卷积结构和传统的神经网络分类器连接了起来。他将卷积层看作是一个特征提取器,并用...翻译 2018-12-20 10:31:02 · 238 阅读 · 0 评论 -
Delving Deep into Rectifiers-权值初始化 部分翻译
本文仅用于学习记录,以下内容均为学习过程中,翻译记录所得,由于从word复制过来,公式出错,所以请结合原论文公式看。相比较于传统的sigmoid激活函数的网络,修正网络更容易去训练。但是一个不好的初始化可能在高度非线性的系统中阻碍学习。在本节,我们提出了一个强壮的初始化方法,为训练非常深的rectifier networks扫清障碍。 最近的深度卷积网络大多通过随机符合高斯...翻译 2018-12-20 10:35:01 · 458 阅读 · 0 评论