经典的卷积网络结构-LeNet、AlexNet、VGG、ResNet、Inception

本文探讨了卷积神经网络的经典模型,包括LeNet-5、AlexNet、VGG-16,深入解析残差网络及其作用,介绍了Inception网络的结构和优势。此外,还讨论了数据增强、迁移学习在计算机视觉领域的应用。
摘要由CSDN通过智能技术生成

1.为什么进行实例探究?

通过阅读别人的论文和代码来学习。
后面会学习几个经典的网络模型。
在这里插入图片描述

2.经典网络

2.1 LeNet-5

输入:图片32×32×1,过滤器5×5,avg pool 2×2-步长2。
网络结构图:
在这里插入图片描述
参数大概6W个,激活函数用的sigmoid和tanh。
可借用模式:一个或多个卷积层后面跟着一个池化层,重复若干个这种结构,然后是全连接层,最后是输出。
论文阅读:精度第二段(介绍网络结构)、泛读第三段(实验结果)。

2.2 AlexNet

输入:图片227×227×3;过滤器有:11×11-步长4,5×5-same,3×3-步长1-padding-1;max-pool:3×3-步长2。
在这里插入图片描述
参数大概6000万个。激活函数用的ReLU。
在这里插入图片描述
训练方法:在两个GUP上进行训练。
LRN(局部响应归一化层):得到256个数字,进行归一化。motivate是13×13的图像每个位置来说,可能并不需要太多的高激活神经单元。

2.3 VGG-16

输入:图片224×224×3,过滤器:3×3-步长1-same padding;池化:2×2-步长2。
在这里插入图片描述
这里的16指的是卷积层和全连接层的数量,整个网络大概有1.38亿个参数。
网络结构的设计原则:每一步卷积,通道数翻倍。每一次池化,高度宽度缩小一半。
总结:论文阅读顺序:AlexNet->VGG->LeNet。

3.残差网络

残差块:(残差网络的基本结构)
在这里插入图片描述
直观上的感觉就是:在两层神经网络之间,将前一层的输入直接加到后一层的激活层上。从而跳过前一层。
主要公式就是:
在这里插入图片描述
“跳跃连接”:一次跳过一层或几层,直接将信息传递到深层。
残差网络结构:
在这里插入图片描述
从图下部也可以看出,解决了层数越深,训练错误越高的问题。
PS:本为因为是中国人发明而高兴,但是发现其为Facebook的员工,唉,什么时候中国能成为适合科技创新的土壤呢?为什么培养不出也留不住最最优秀的人才呢?

4.残差网络有什么用?

通常来说,神经网络在训练集表现好,在hol

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值