![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 90
RornShi
这个作者很懒,什么都没留下…
展开
-
解剖caffe mode:Blobs, Layers和Nets
Implementation Details一个Blob存储两块内存的数据:data和diff。data是沿着神经网络传递的正常数据,diff则是网络计算的梯度。另外,实际数值可能存储在CPU或GPU。有两种方式访问数据,对GPU、CPU和diff同样适用:1、常值访问(const):不改变数值2、可变访问(mutable): 改变数值例如,const Dtype* cpu_data() cons...原创 2018-04-08 19:42:00 · 568 阅读 · 0 评论 -
解剖caffe:Forward 和 Backward
Forward和Backward是一个网络的基本计算。先考虑一个logistic regression分类器。前向通路使用输入计算输出,用于推理。计算模型表示的函数,前向通路从bottom到top。数据通过内积层传递到, 然通过softmax函数传递到以及softmax损失给反向通路在损失函数处开始,并计算关于输出的梯度。关于模型其余部分的梯度通过链式规则逐层计算。带有参数的层,比如INNER_P...翻译 2018-04-08 20:13:09 · 3170 阅读 · 1 评论 -
解剖caffe: Loss
在caffe中,正如大多机器学习那样,学习通过损失函数驱动(也常称作error, cost, 或objective function)。损失函数指定了学习的目标通过把网络权重映射到一个标量值来指定这些参数设置的“恶劣状态”。因此学习的目标就是发现权重的设置来最小化损失函数。在caffe中,loss通过网络的前向传播计算。每一层使用输入blob(bottom)来产生输出blob(top)。这些层的输...翻译 2018-04-08 21:16:37 · 503 阅读 · 0 评论 -
卷积、池化中特征图输出大小计算
卷积、池化中特征图输出大小计算通用公式参数定义:输入大小W核大小FFF步长SSSpadding大小PPP输出大小NNN为:N=W−F+2∗PS+1N=\frac{W-F+2*P}{S}+1N=SW−F+2∗P+1两种类别分析:valid 和 same卷积和池化都适用,卷积除不尽向下取整,池化则向上取整validN=W−FS+1N=\frac{W-F}{S}+1...原创 2019-05-06 23:48:44 · 4337 阅读 · 6 评论 -
感受野计算
感受野计算转载https://www.jianshu.com/p/9997c6f5c01e感受野定义卷积神经网络中,感受野是每一层输出特征图上的每个点在上一层上映射的区域大小。感受野计算感受野计算采用bottom-up方式,与padding无关,与之前所有层的核大小和步长有关,是最大感受野减去重叠部分(步长小于核大小引起)。参数表示:rkr_krk 第kkk层感受野大小fk,...转载 2019-05-07 00:25:56 · 493 阅读 · 0 评论