深度学习经典网络回顾:AlexNet+VGG

本文回顾了深度学习中的两个经典网络——AlexNet和VGG。AlexNet首次证明了深度神经网络在ImageNet上的可行性,引入ReLU激活函数和Dropout技术。VGG则以小卷积核和深层网络结构确立了卷积块设计规范。讨论了网络结构、防止过拟合的手段,并分享了面试中可能遇到的相关问题。
摘要由CSDN通过智能技术生成

一.AlexNet:

虽然深度学习元年是2006年,但是真正使深度学习火起来的是2012年的ImageNet上的AlexNet,由于本人本科毕设有用到该网络模型,虽然后面更优秀的网络模型层出不穷本人再没有使用过该网络,但是该网络的设计对后序网络的设计还是又不可磨灭的影响。首先该网络出自论文:《ImageNet Classification with Deep ConvolutionalNeural Networks》。其中主要贡献有如下几点:

1.从实践中证明了深度神经网络的可行性,确立了多GPU+深度神经网络解决大规模非结构化数据(CV、NLP、语音)问题的工作范式,它得益于现代硬件尤其是GPU的成熟发展,却也反过来激励与AI相关硬件的更高速的发展。

2.激活函数单元创新:引入了ReLU非线性激活函数,对tanh和sigmoid会引起的梯度消失问题有一个很好的解决。

3.引入了Dropout,对过拟合问题有一个很好的解决。

4.引入了正则化层:局部响应正则化(LRN),不过后来被证明并不很work,被各大网络舍弃。btw,后面BN层横空出世。

下面从上述几点分别阐述:

1.网络结构如图所示:

更直观的观察:

为什么第一层有96个卷积核,论文原图上画了两个48,后面几层也是这样??因为当时是在两个gpu上跑的。

2.ReLU激活函数:

长这样:简单点就是max(0,x)

优点如下:

(1).不会像sigmoid一样梯度消失。

(2).计算很快。

(3).收敛迅速,比sigmoid/tanh快6倍。

(4).更合理的生物性解释。

简单点为什么sigmoid会梯度消失它不会?ReLU不会梯度消失直观看来梯度为常数,所以当然不会啦。那s

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值