AlexNet网络结构

该博客详细介绍了深度学习中卷积神经网络(CNN)的结构和工作原理。从第一层的卷积层和池化层开始,通过计算得出不同层的输出尺寸,展示了一步步构建网络的过程。涉及关键参数如卷积核大小、步幅和Padding的计算,并解释了ReLU激活函数和局部归一化的作用。接着,讨论了全连接层、Dropout和高斯过滤器在模型中的应用,最终用于图像分类任务。
摘要由CSDN通过智能技术生成

在这里插入图片描述
设输入图像尺寸为W,卷积核尺寸为F,步幅为S,Padding使用P,则经过卷积层或池化层之后的图像尺寸为(W-F+2P)/S+1

一、第一层是卷积加池化结合层。

  1. 输入大小224×224×3或者227×227×3,使用96个11×11的卷积核,步长为4,经过一层卷积,输出特征图大小为(224-11)/4 +1向上取整,得55×55×96,经过 激活函数ReLU和局部归一化LRN
  2. 对特征图最大池化操作,卷积核3×3,步长为2,输出特征图55/2=27,得27×27×96。

二、第二层是卷积加池化结合层。

  1. 输入是27×27×96,卷积核5×5×256,步长为1,尺寸不变,经过激活函数ReLU和局部归一化LRN,得27×27×256。
  2. 对特征图最大池化操作,卷积核3×3,步长为2,输出特征图(27-2)/2=13,得13×13×256。

三、第三层至第五层是卷积层。

  1. 第三层。输入13×13×256,卷积核3×3×384,步长为1,尺寸不变,13×13×384,经过激活函数ReLU
  2. 第四层。输入13×13×384,卷积核3×3×384,步长为1,尺寸不变,13×13×384,经过激活函数ReLU
  3. 第五层。输入13×13×384,卷积核3×3×256,步长为1,尺寸不变,13×13×256,经过激活函数ReLU
  4. 对特征图最大池化操作,卷积核3×3,步长为2,输出特征图(13-2)/2=6,得6×6×256。

四、第六层至第八层全连接层。

  1. 第六层全连接层。6×6×256全连接,经过dropout,输出4096个神经元。
  2. 第七层全连接层。与第六层相似。
  3. 第八次全连接层。4096个神经元,经过dropout,经过高斯过滤器,输出1000个float的值,即预测的可能性,例如苹果0.8,橘子0.1,桃子0.1。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值