【图像分类】卷积神经网络之AlexNet网络模型结构详解

写在前面:
首先感谢兄弟们的关注和订阅,让我有创作的动力,在创作过程我会尽最大能力,保证作品的质量,如果有问题,可以私信我,让我们携手共进,共创辉煌。

1. 前言

LeNet5网络模型提出之后,卷积神经网络在很长一段时间都没有长足的发展,主要有以下两个原因:

1.1 训练数据的缺失

包含许多特征的深度模型需要大量的有标签的数据才能表现得比其他经典方法更好。限于早期计算机有限的存储和90年代有限的研究预算,大部分研究只基于小的公开数据集。例如,不少研究论文基于加州大学欧文分校(UCI)提供的若干个公开数据集,其中许多数据集只有几百至几千张图像。这一状况在2010年前后兴起的大数据浪潮中得到改善。特别是,2009年诞生的ImageNet数据集包含了1,000大类物体,每类有多达数千张不同的图像。这一规模是当时其他公开数据集无法与之相提并论的。ImageNet数据集同时推动计算机视觉和机器学习研究进入新的阶段,使此前的传统方法不再有优势。

1.2 硬件条件的不足

深度学习对计算资源要求很高。早期的硬件计算能力有限,这使训练较复杂的神经网络变得很困难。然而,通用GPU的到来改变了这一格局。很久以来,GPU都是为图像处理和计算机游戏设计的,尤其是针对大吞吐量的矩阵和向量乘法从而服务于基本的图形变换。值得庆幸的是,这其中的数学表达与深度网络中的卷积层的表达类似。通用GPU这个概念在2001年开始兴起,涌现出诸如OpenCL和CUDA之类的编程框架。这使得GPU也在2010年前后开始被机器学习社区使用。

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,以下是AlexNet网络模型AlexNet网络结构主要由8个层组成,其中前5个层是卷积层,后3个层是全连接层。 1. 第一层:卷积层,96个大小为11x11的卷积核,步长为4,每个卷积核对应输入图像的3个通道,输出96个特征图。 2. 第二层:池化层,使用大小为3x3,步长为2的最大池化,对每个特征图进行下采样,得到48个下采样的特征图。 3. 第三层:卷积层,256个大小为5x5的卷积核,步长为1,每个卷积核对应前一层的48个特征图,输出256个特征图。 4. 第四层:池化层,使用大小为3x3,步长为2的最大池化,对每个特征图进行下采样,得到128个下采样的特征图。 5. 第五层:卷积层,384个大小为3x3的卷积核,步长为1,每个卷积核对应前一层的128个特征图,输出384个特征图。 6. 第六层:卷积层,384个大小为3x3的卷积核,步长为1,每个卷积核对应前一层的384个特征图,输出384个特征图。 7. 第七层:卷积层,256个大小为3x3的卷积核,步长为1,每个卷积核对应前一层的384个特征图,输出256个特征图。 8. 第八层:全连接层,4096个神经元,使用ReLU激活函数。 9. 第九层:全连接层,4096个神经元,使用ReLU激活函数。 10. 第十层:全连接层,1000个神经元,对应ImageNet的1000个类别。 以上就是AlexNet网络模型,它的创新之处在于使用了多层卷积层和局部响应归一化(LRN)等技术,使得模型的识别性能大幅提升。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

机器不学习我学习

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值