卷积神经网络2 (p25-p27)

经典网络

Alexnet 网络

  • 用rectified linear units(ReLU)得到非线性;
  • 使用 dropout 技巧在训练期间有选择性地忽略单个神经元,来减缓模型的过拟合;
  • 重叠最大池,避免平均池的平均效果;
  • AlexNet 有8层,有些层已经证明效果不好了。

VGG网络

它主要的贡献是展示出网络的深度是算法优良性能的关键部分。他们最好的网络包含了16个卷积/全连接层。网络的结构非常一致,从头到尾全部使用的是3x3的卷积和2x2的汇聚

缺点:使用了更多的参数,导致更多的内存占用,耗时较长

发现一个问题,不是深度越多越好,16层比32层效果还好。

ResNet ,残差网络(Residual Network)

由何恺明等实现,它使用了特殊的跳跃链接,大量使用了批量归一化(batch normalization)。 按照 老师 的 介绍 ,就是如果某一层表现不好,权重为0,可以直接跳过 。累积起来不回避 原来效果差。

理解为特征提取,应用比较广泛

感受野 

如果堆叠 3 个 3x3 的卷积层, 并且保持滑动窗口步长为 1, 其感受野就是 7x7 了. 如下图所示:

 

 下一篇开始,结合 demo看具体参数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值