Task05:卷积神经网络基础;leNet;卷积神经网络进阶知识点总结(非常肤浅后期补足)

卷积神经网络基础

二维互相关运算: 输入 * 核 = 输出,其中卷积核是一个过滤器,通常尺寸小于数组。由于卷积层核数组可学习,该运算和卷积运算五本质区别。

感受野: 影响元素x前向计算的所有可能输入区域(可能大于输入尺寸)叫做x的感受野。

填充:输入高和宽两侧填充元素(通常未0)
步幅:互相关运算中,卷积核在数组上每次滑动的行数和列数

全连接层把图像展平成一个向量,输入图像上相邻的元素因为展平可能不再相邻。卷积层可提取局部信息且参数更少,可用较少的参数处理更大的图像。

池化:对输入数据计算固定的池化窗口元素的最大值或者平均值。作用未缓解卷积层对位置的过度敏感性。

leNet

在这里插入图片描述
leNet 模型分为卷积层模块和全连接层模块。卷积层模块基本单位是一个卷积层接池化层,卷积层用于识别图像中空间模式,池化层用于降低卷积层对位置的敏感性;全连接层模块含3个全连接层。输出个数为120、84、10.

卷积神经网络进阶

深度卷积神经网络(AlexNet)

5层卷积,2层全连接隐藏层,1个全连接输出层;Relu激活函数;Dropout控制全连接层模型复杂度。但是没有模块化,不能用小的block构成,结构比较固定化。

使用重复元素的网络(VGG)

重复使用block,填充1,窗口形状33的卷积层,接步幅为2,窗口形状22的最大池化层。卷积层保持宽和高不变,池化层对其减半

网络中的网络(NiN)

串联多个由卷积层和全连接层构成的小网络组成申城网络

GoogleNet

由Inception基础模块组成,一个Inception块是一个有4条线路的子网络,通过不同窗口形状的卷积层和最大池化层并行抽取信息,且使用1*1卷积层减少通道数从而降低模型复杂度。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值