深度学习小白笔记:AlexNet篇

本文是作者作为深度学习新手对AlexNet的理解分享,详细介绍了AlexNet的主要参数和网络结构,包括8层网络,5层卷积层,3层全连接层,65万个神经元,6000万个参数。重点讲解了ReLU、双GPU并行运行、LRN局部响应归一化以及如何减少过度拟合。此外,文章还提到了数据增强和Dropout技术在防止过拟合中的应用。
摘要由CSDN通过智能技术生成

前言:作为一个刚刚学习深度学习的小白和一个第一次在CSDN上写博客的新用户,在这里分享一下初步学习了AlexNet之后对这个网络的理解,如果大家看到错误,希望加以指正。

一言不合先摆上一张AlexNet中最最重要的核心构架图:
在这里插入图片描述
好了,看了这张结构图,我们就可以慢慢的品味他的结构和特色啦!

AlexNet的主要参数:

  • 结构:8层
  • 卷积层:5层
  • 全连接层:3层
  • 神经元数目:65万
  • 参数个数:6000万
  • 输入的图片尺寸:224x224x3
  • 卷积核:
    conv1:11x11x3,步长为4,卷积核个数为96
    conv2:5x5x48,步长为1,卷积核个数为256
    conv3:3x3x256,步长为1,卷积核个数为384
    conv4:3x3x192,步长为1,卷积核个数为384
    conv5:3x3x192,步长为1,卷积核个数为256

AlexNet网络构架

在这里插入图片描述
通过上面的图可以很清晰的看出AlexNet的结构(顺便再看看一开始附上的权威结构图):
第一、第二卷积层后面是重叠的最大池化层,第三个、第四个和第五个卷积层都是直接相连的。第5个卷积层后面还有一个重叠的最大池层,它的输出会进入两个全连接层。第二个全连接层可以给softmax分类器提供1000类标签。
(这里简单讲讲重叠池带来的好处:使用重叠池的方案,将原有的前一和前五的错误率分别降低了0.4%和0.3%,产生了等效维度的输出。并且通过训练得知,应用了重叠池的模型更不容易过度拟合,当然减少过度拟合AlexNet还运用了别的方式,在后文会具体讲到)
在所有的卷积层和全连接层之后,都应用了ReLU非线性函数输出。第一和第二个卷积层都应用ReLU非线性函数,然后进行局部标准化,最后执行pooling操作方法。

处理过程:
第一层:
1.输入Input的图像规格: 224x224x3(三通道RGB图像),后期调整为

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值