百面深度学习 -卷积神经网络

笔记

卷积神经网络

  1. 卷积的特点:局部连接权值共享输入/输出数据的结构化
    局部连接指的是输出特征图上的每个节点都至于输入层的部分节点相连接。
    全职共享指卷积核的滑窗机制,使得输出层上不同位置的节点与输入层的连接权值是一样的。
    以上两个特点使得卷积操作能够在数据中大致保持输入数据的结构信息(空间对应关系)。而全连接层会丧失这种对应关系。
  2. 参数量取决于每个卷积核的参数量以及卷积核的个数。如每个卷积核有 c i k w k h c^{i}k_wk_h cikwkh个参数,而卷积核个数等于输出特征图的通道数,总参数量为 c o c i k w k h c^{o}c^{i}k_wk_h cocikwkh
  3. 计算量 计算量由卷积核在每个滑动窗的计算量以及整体的滑动次数决定。在每个滑动窗内,卷积操作计算量为 c i k w k h c^{i}k_wk_h cikwkh,而卷积核的滑动次数即输出特征图的数据个数 c o l w o l h o c^{o}l_w^{o}l_h^{o} colwolho。总计算量为相乘 c i c o l w o l h o k w k h c^{i}c^{o}l_w^{o}l_h^{o}k_wk_h cicolwolhokwkh,若考虑步长,可近似为 c i c o l w o l h o k w k h / ( s w s h ) c^{i}c^{o}l_w^{o}l_h^{o}k_wk_h/(s_ws_h) cicolwolhokwkh/(swsh)
  4. 分组卷积为了解决单个GPU不足以处理较大计算量和存储需求的卷积层的问题。采用分组卷积分配到多个GPU上。目前常用于移动设备的小型网络模型。
  5. 卷积过程往往特征图缩小,这是一种信息聚合。
  6. inception结构:不仅是进行多尺度特征提取,也是使得网络结构稀疏化(思想是稀疏矩阵可以分解为多个稠密矩阵)。
  7. bottleneck结构 可以通过 1 × 1 1{\times} 1 1×1卷积调整输出层的通道数。
  8. ResNet采用跳层连接,若网络因层数加深而退化,则它可以通过控制网络中“近道”与“非近道”的比例来退回到之前浅层时的状态,即“近道”具有自我关闭能力。此外,可以缩短误差反向传播的到各层的路径,有效一致梯度消失的现象,从而使得网络在加深时性能不会下降。
    .
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值