caffe源码中的common_layers

1. split_layer

bottom中一个blob,top层中多个blob


top层中的所有blob共享bottom中的data,但diff数据不同


因此,backward过程,实际上是把top中对应位置的diff相加,所得到的结果作为bottom中的diff


2. inner_product_layer

是全连接层


输入是一个K维矢量,输出是N维矢量,我们可以看做是有N个神经元,每个神经元有K个权值。因此,权值矩阵是一个N*K矩阵weight


然而输入有M组,即输入是一个M*K矩阵,因此,输出也应该是一个M*N矩阵top_data,这样,forward过程就是计算bottom_data*weight,并将结果存储到top中


forward过程明确后,backward过程就简单了,实际上,它就是经典的BP神经网络



3. flatten_layer

该层只改变tensor的形状,不改变数据


我们知道,tensor中的数据实际上就是一片连续的内存,它本质上是vector,不过我们定义了额外的变量来描述tensor的形状


因此,flatten_layer不改变data_和diff_所指向的数据,只改变shape等描述tensor形状的参数


比如,bottom的数据是四

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值