卷积设计

神经网络的深度决定什么? (提取特征的能力,提取特征的抽象程度,他是由于反向的梯度更新决定的,权重更新次数和网络的层数是有关的)

每层神经元的个数决定的是(该网络的非线性能力)

 

网络设计深更利于特征提取,但是会有梯度消失(反向时每层神经网络连乘),梯度弥散。

相应的何凯明提出了,残差网络,作用是保证后面的反向过程的网络层梯度不为零,反向时加输入值

 

卷积空间层面(理解为图片rgb的每一层)的是局部连接,在通道上面是全连接,所以可以使用分组,将通道分组,来减少全连接计算。分组只能影响通道上的计算,空间层面不影响。  分组和通道数一样,速度是最快的,称作深度卷积,但是这样造成了数据未融合,所以产生了通道混洗([N,C,H,W]-->[N, g, C/g, H,W]-->[N,C/g,g,H,W]-->[N,C,H,W],g分组)。

分组卷积最早是在alexnet上提出,其实分布式原理,单机计算力问题

分组卷积要注意的是,保证输入和输出channel 能被组数整除

 

一个卷积核对应一个输出特征图,但是卷积核的层与输入通道对应的,输入4通道,会有4个卷积层对应,每层的数据运算结束后,最后会用全连接的形式生成输出特征图。  每一层上都有各自的卷积权重(不参加反向计算),

 

1*1的卷积核(逐点卷积)是不能做特征提取的,他是做通道融合, 同时降低计算量。对wh没变化,但是对c做操作

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值