《神经网络与深度学习》学习笔记三

AlexNet是2012年推出的一层深度卷积神经网络,它在ImageNet竞赛中的胜利证明了学习特征优于手工设计。相比LeNet,AlexNet更深,使用ReLU激活函数,并引入了更大的卷积窗口和最大池化层。这一突破推动了深度学习在计算机视觉领域的广泛应用。
摘要由CSDN通过智能技术生成

一、AlexNet

2012年,AlexNet横空出世。它⾸次证明了学习到的特征可以超越⼿⼯设计的特征。它⼀举打破了计算机视觉研究的现状。AlexNet使⽤了8层卷积神经⽹络,并以很⼤的优势赢得了2012年ImageNet图像识别挑战赛。

AlexNet和LeNet的设计理念⾮常相似,但也存在显著差异。
1. AlexNet⽐相对较⼩的LeNet5要深得多。AlexNet由⼋层组成:五个卷积层、两个全连接隐藏层和⼀个
全连接输出层。
2. AlexNet使⽤ReLU⽽不是sigmoid作为其激活函数。

在AlexNet的第⼀层,卷积窗⼝的形状是11×11。由于ImageNet中⼤多数图像的宽和⾼⽐MNIST图像的多10倍以上,因此,需要⼀个更⼤的卷积窗⼝来捕获⽬标。第⼆层中的卷积窗⼝形状被缩减为5×5,然后是3×3。此外,在第⼀层、第⼆层和第五层卷积层之后,加⼊窗⼝形状为3×3、步幅为2的最⼤汇聚层。⽽且,AlexNet的卷积通道数⽬是LeNet的10倍。在最后⼀个卷积层后有两个全连接层,分别有4096个输出。这两个巨⼤的全连接层拥有将近1GB的模型参数。由于早期GPU显存有限,原版的AlexNet采⽤了双数据流设计,使得每个GPU只负责存储和计算模型的⼀半
参数。幸运的是,现在GPU显存相对充裕,所以现在很少需要跨GPU分解模型

b21acb06521f46d8b12c6d34c569b432.png

此外,AlexNet将sigmoid激活函数改为更简单的ReLU激活函数。⼀⽅⾯,ReLU激活函数的计算更简单,它不需要如sigmoid激活函数那般复杂的求幂运算。另⼀⽅⾯,当使⽤不同的参数初始化⽅法时,ReLU激活函数使训练模型更加容易。当sigmoid激活函数的输出⾮常接近于0或1时,这些区域的梯度⼏乎为0,因此反向传播⽆法继续更新⼀些模型参数。相反,ReLU激活函数在正区间的梯度总是1。因此,如果模型参数没有正确初始化,sigmoid函数可能在正区间内得到⼏乎为0的梯度,从⽽使模型⽆法得到有效的训练。 60d6df3ab1814ac2aed01bfb9b3c5f3a.png

6ba206fdd7ad4345aa291a98579c70d4.png

5335cb939a784ef284ae89b31ca1fef2.png

22906eaa34ab49d38be3046ecd2089b9.png

ee013c63e2664c298034315dda4114cd.png

5389caa087894664ae5013f9d2cdde71.png

 AlexNet的架构与LeNet相似,但使⽤了更多的卷积层和更多的参数来拟合⼤规模的ImageNet数据集。
• 今天,AlexNet已经被更有效的架构所超越,但它是从浅层⽹络到深层⽹络的关键⼀步。
• 尽管AlexNet的代码只⽐LeNet多出⼏⾏,但学术界花了很多年才接受深度学习这⼀概念,并应⽤其出
⾊的实验结果。这也是由于缺乏有效的计算⼯具。
• Dropout、ReLU和预处理是提升计算机视觉任务性能的其他关键步骤。

2、VGG16

e4cb081f5c86486b82a61eaad78848ab.png

b57f72ddf8624c269395b3ed99051a6e.png

018cabe700e3418da71cf6a131cb978c.png

e458ff23dafe4d07a5d1281ac230cc16.png

3、常用数据集

cdf002d0c6cf4b058957df6ddb474f6b.png

7e939a65b99a4b16858fbf870e638be1.png

979a23bc77ac490aba435f6e0790247a.png

32dd81c1cf5d4f32bad8a8e4de6b1eb4.png

34781347586f40d9ad3167255da8fba9.png

03ce27699c814cec938b6a9a545af435.png

6935c1ea614d43dc86dcd5f889182579.png

4、深度学习视觉应用

52988bf7bc7e4476a0add8de7db7653d.png

f5b133f837394750811c8f10f87a6012.png

d0f3623baab848c09ca8da845ba580eb.png

c7b3eb7458954b7e86c465e50d69f5c5.png

8145ef295c074e8c97fce14b5a1675e7.png

a58b9c60644244c98631642d82a00c8b.png

a5a74d6cb89047a784091767e3e52be5.png

c730a986261346a0aede4b2c5eb7c0f5.png

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值