深度卷积神经网络DCNN总结(AlexNet,ZFNet,VGGNet,GooleNet,ResNet)

本文总结了深度卷积神经网络的发展历程,包括AlexNet的LRN原理,ZFNet对AlexNet的优化,VGGNet的深度探索,GooleNet的Inception模块创新,以及ResNet的残差学习。通过对网络结构的不断调整和改进,这些模型在图像识别任务中取得了显著进步。
摘要由CSDN通过智能技术生成

AlexNet

2012年AlexNet被提出,如果将隐藏层看做黑盒的话,输入有大概15万个特征,输出有5万个特征
其中有8层网络,不算池化层,有8层。5层卷积层和三层全连接层
LRN-局部响应规范,横向局部抑制,找出所有层相同位置,比较大小,取最大的那一层,在这一层的周围使用公式计算出值,越大的值会越大,越小的值就受到抑制。
K:超参,n:影响通道数,实践证明BN比LRN的效果更好
在这里插入图片描述

LRN的原理

图像识别的输出值,最大的概率是0.99,其他的值加起来为0.01比最大概率是0.8,其他值加起来是0.2的效果好

ZFNet

2013年被提出
AlexNet是否能够通过调参变得更好,
通过调整卷积核大小 和增加maxpooling 的步长,使得特征值变得更加光滑

VGGNet

2014年被提出,深度学习出现了特征框架和大的网络,vgg是通过调参和增加层数得到的最优,大概这是调参的极限了,如果想要获得更好性能,估计要进行网络结构改变,VGGnet是卷积层和全连接层搭配达到极限,增加LRN效果一般。
vggnet有19层,常用的是vggnet16.

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Nefelibat

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值