吴恩达《深度学习》第四课第二周

本文深入探讨吴恩达《深度学习》中关于深度卷积网络的内容,包括经典网络LeNet-5、AlexNet、VGG,以及ResNet和Inception网络的结构和优势。ResNet通过残差块解决了深度网络的优化难题,而Inception网络则通过1x1卷积和多路径设计让网络自我决定最佳过滤器组合。此外,文章还介绍了迁移学习、数据增强在计算机视觉中的应用。
摘要由CSDN通过智能技术生成

2深度卷积网络——实例探究

学习目标:通过本课程的学习之后,可以阅读计算机视觉方面的论文,学习别人以取得的比较好的CNN架构。

2.1为什么要进行实例探究

1.学习一门技术最好的办法是学习别人如何应用。

经典的网络:

  • LeNet-5
  • AlexNet
  • VGG

新型网络:

  • ResNet : 152层
  • Inception

2.2经典网络

1.LeNet-5,6万个参数

2.AlexNet,6千万个参数

 

AlexNet的特点

  • 与LeNet机构相似,但复杂很多,训练的参数达到6千万;
  • 使用了Relu函数
  • 多GPU处理,将各层数据分配到两个GPU进行处理;
  • 增加了局部相应归一化层(local respond normalization,LRN) ,但算法起到的作用不大

3.VGG-16

这是一种只需要专注于构建卷积层的网络,CONV=3x3 filter, s=1, padding= same     MAX-POOLING = 2x2, s=2.

VGG的特点:

  • 简化了神经网络结构,即机构很规整并不复杂(都是几个卷积层后跟一个可以缩小图像高度和宽度的池化层)
  • 但是是一个非常深的结构,VGG-16包含16个卷积层/FC层,卷积层过滤器的个数存在一定的规律:64-128-256-512
  • 1.38亿个参数,缺点之一
  • 解释了图像大小和通道数量之间的某种关系

2.3残差网络:ResNet

1.残差块(residual block),ResNet的基本组成模块,使用残差块可以训练更深层次的网络,其基本过程是跳过一层或基层网络层,比如将a[l]直接传递到a[l+2],则a[l+2] = g(Z[l+2] + a[l])在这个公式里可看出多了一个a[l]块,这个块就称为残差块。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值