浅谈卷积神经网络

传统神经网络

 

卷积神经网络

 


卷积神经网络的基本架构

  •  输入层
  • 卷积层
  • 池化层

       最大池化:

         

  • 全连接层

卷积神经网络参数:

  •  步长:每次卷积核滑动的长度
  • 卷积核尺寸:卷积核大小
  • 边缘填充:通常在图像外围填充0
  • 卷积核个数:等于下一层特征图通道数

  

卷积神经网络计算公式:

  •  长度: 

H_2 = \frac {H_1-F_H+2P}{S}+1 

  •  宽度:

W_2 = \frac{W1-F_W+2P}{S}+1

 注:W_1,H_1为输入层宽度和长度, \small W_2, H_2为输出层宽度和长度,F表示卷积核的长和宽的大小,P为边界填充大小,S表示步长  

卷积特征图变化:

 

经典卷积神经网络:

  •  AlexNet
  •  VGG
  • 残差网络Resnet

神经网络感受野:

  • 定义:卷积神经网络每一层输出的特征图上的像素点在输入图片上映射的区域大小。
  •  计算公式:

 RF_{l+1} = RF_{l} + (k_{l} - 1) \times s_{l} \times dilation_{l+1}

  注:RF表示感受野, k表示卷积核大小,s表示步长,普通卷积dilation为1,空洞卷积dilation大于1.(计算感受野时,忽略padding的影响)

  • 作用:
  • 感受野的值可以用来大致判断每一层的抽象层次,感受野越大,也意味着可能蕴含更为全局、语义层次更高的特征;感受野越小则表示所包含的特征越趋向于局部和细节。
  • 辅助网络设计:
  1.  一般任务:要求感受野越大越好
  2. 目标检测:设置anchor要严格要求对应感受野,anchor太大或者偏离感受野都会严重影响检测性能。
  3. 语义分割:要求输入像素的感受野足够大,确保做出决策时没有忽略重要信息,一般越深越好。
  4. 在加深网络深度的同时减少参数个数。 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值