吴恩达《深度学习》第四课第二周

2深度卷积网络——实例探究

学习目标:通过本课程的学习之后,可以阅读计算机视觉方面的论文,学习别人以取得的比较好的CNN架构。

2.1为什么要进行实例探究

1.学习一门技术最好的办法是学习别人如何应用。

经典的网络:

  • LeNet-5
  • AlexNet
  • VGG

新型网络:

  • ResNet : 152层
  • Inception

2.2经典网络

1.LeNet-5,6万个参数

2.AlexNet,6千万个参数

 

AlexNet的特点

  • 与LeNet机构相似,但复杂很多,训练的参数达到6千万;
  • 使用了Relu函数
  • 多GPU处理,将各层数据分配到两个GPU进行处理;
  • 增加了局部相应归一化层(local respond normalization,LRN) ,但算法起到的作用不大

3.VGG-16

这是一种只需要专注于构建卷积层的网络,CONV=3x3 filter, s=1, padding= same     MAX-POOLING = 2x2, s=2.

VGG的特点:

  • 简化了神经网络结构,即机构很规整并不复杂(都是几个卷积层后跟一个可以缩小图像高度和宽度的池化层)
  • 但是是一个非常深的结构,VGG-16包含16个卷积层/FC层,卷积层过滤器的个数存在一定的规律:64-128-256-512
  • 1.38亿个参数,缺点之一
  • 解释了图像大小和通道数量之间的某种关系

2.3残差网络:ResNet

1.残差块(residual block),ResNet的基本组成模块,使用残差块可以训练更深层次的网络,其基本过程是跳过一层或基层网络层,比如将a[l]直接传递到a[l+2],则a[l+2] = g(Z[l+2] + a[l])在这个公式里可看出多了一个a[l]块,这个块就称为残差块。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值