DL
ZhikangFu
这个作者很懒,什么都没留下…
展开
-
RCNN, Fast-RCNN, Faster-RCNN的一些事
原文:http://closure11.com/rcnn-fast-rcnn-faster-rcnn%E7%9A%84%E4%B8%80%E4%BA%9B%E4%BA%8B/rbg大神的深度神经网络检测算法系列RCNN、Fast-RCNN、Faster-RCNN可谓是理论与实践的经典范例,论文创新点足够,在github上开源的代码更是造福广大码农,本文以当前最新Fast转载 2016-09-02 09:21:19 · 702 阅读 · 0 评论 -
一文弄懂神经网络中的反向传播法——BackPropagation
转载于:http://www.cnblogs.com/charlotte77/p/5629865.html最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充,但是补充的又是错的,难怪觉得有问题。反向传播法其实是神经网络的基础了,但是转载 2016-08-24 12:58:13 · 1242 阅读 · 0 评论 -
卷积神经网络后传原理
在上篇中介绍的输入层与隐含层的连接称为全连接,如果输入数据是小块图像,比如8×8,那这种方法是可行的,但是如果输入图像是96×96,假设隐含层神经元100个,那么就有一百万个(96×96×100)参数需要学习,向前或向后传播计算时计算时间也会慢很多。 解决这类问题的一种简单方法是对隐含单元和输入单元间的连接加以限制:每个隐含单元仅仅只能连接输入单元的一部分。例如,每个隐含单元仅仅连接输入转载 2016-09-30 15:24:00 · 1117 阅读 · 0 评论 -
循环神经网络(RNN, Recurrent Neural Networks)介绍
转载于:http://blog.csdn.net/heyongluoyao8/article/details/48636251循环神经网络(RNN, Recurrent Neural Networks)介绍 这篇文章很多内容是参考:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-转载 2016-11-14 11:21:51 · 773 阅读 · 0 评论 -
重磅论文:解析深度卷积神经网络的14种设计模式
http://www.jiqizhixin.com/article/1772这篇论文的作者是来自美国海军研究实验室的 Leslie N. Smith 和来自美国马里兰大学的 Nicholay Topin,他们在本论文中总结了深度卷积神经网络的 14 种设计模式;其中包括:1. 架构结构遵循应用;2. 扩增路径;3. 努力实现简洁;4. 增加对称性;5. 金字塔形状;6. 用转载 2016-11-14 14:13:56 · 6664 阅读 · 0 评论 -
理解 LSTM 网络
转自:http://www.jianshu.com/p/9dc9f41f0b29Recurrent Neural Networks人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。传统的神经网络并不能做到这点,看起来也转载 2016-11-30 11:06:06 · 524 阅读 · 0 评论 -
Batch Normalization 的原理解读
1:motivation作者认为:网络训练过程中参数不断改变导致后续每一层输入的分布也发生变化,而学习的过程又要使每一层适应输入的分布,因此我们不得不降低学习率、小心地初始化。作者将分布发生变化称之为 internal covariate shift。对于深度学习这种包含很多隐层的网络结构,在训练过程中,因为各层参数老在变,所以每个隐层都会面临covariate shift的问题,也就转载 2016-11-29 14:13:12 · 14904 阅读 · 7 评论