华为深度学习课程第九章——卷积神经网络以及案例实践

目录

前言

第一节 卷积神经网络回顾总结

第二节 经典的CNN网络

案例实践 

Resnet-经典卷积神经网络


前言

本课程参考学习华为深度学习课程

https://education.huaweicloud.com/courses/course-v1:HuaweiX+CBUCNXE088+Self-paced/courseware/bfde64ad93ab4bb8a0d4937bdfb29f20/f0525ab36b3e421395671cd760a4adf5/

第一节 卷积神经网络回顾总结

本节简单对卷积神经网络的网络层、核心思想和优点进行回顾总结

首先,卷积神经网络具有卷积层、池化层和全连接层。

其中卷积层的作用是提取图像的局部特征;

池化层的作用是降低参数量和解决图像不变性问题;

全连接层的作用是将特征图映射为向量,以便分类。

其次,卷积神经网络的核心思想是参数共享和局部感知。

因此,卷积神经网络是模仿人对图像局部感知的特点,通过卷积的作用进行特征提取,以减少信息的冗余量,对保留的显著特征进行理解。

最后,卷积神经网络在计算机视觉领域具有显著优势,因为其能够达到较高精确度的识别以及能够自动提取特征(而传统图像处理是基于某种规则对特征进行提取)。

第二节 经典的CNN网络

深度学习和卷积神经网络的发展离不开ILSVRC比赛,随着比赛的举办,涌现出很多经典的卷积神经网络。

AlexNet

(1)网络结构:

因为当时该网络结构出现时,芯片性能并不是很强大,所以最早AlexNet结构采用了数据分流的设计。

(2)特点:

  • 使用ReLU函数代替了Sigmoid激活函数,实现快速收敛。
  • 设计重叠的Pooling,即stride<kernel size,能够减轻过拟合。
  • 进行了数据增强,能够防止过拟合。
  • 设计了一步Dropout,随机丢弃某些神经元,防止过拟合。 

VGGNet 

(1)网络结构:

(2)特点:

VGGNet神经网络主演研究深度对卷积网络的影响,使用3*3卷积核,不断重复卷积、池化,最后全连接、Softmax,得到输出概率。

下面是它的六种配置:

GoogLeNet

(1)网络结构:

(2)特点:

GoogLeNet探究的是不同大小的卷积核、更宽的网络层对分类效果的影响。证明了更多的卷积和更深的层次能够得到更好的结构。 

与AlexNet不同点之一在于加入了Inception结构:

使用不同大小的卷积核,提取不同感受野的特征。

ResNet 

(1)网络结构:

(2)特点:

设计了残差结构,有效解决了深度神经网络梯度消失的问题。

SENet 

本身不是一个完整的神经网络,是一个可以嵌入到其他神经网络中的一个模块:

其结构加入到Inception结构中如下:

加入到残差结构中: 

 

案例实践 

Resnet-经典卷积神经网络

http://t.csdn.cn/OSiKu

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

swl.乌鸦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值