AlexNet网络结构详解

××AlexNet××
在这里插入图片描述

××第一个卷积层××
输入的图片大小为:224×224×3(或者是227×227×3)
第一个卷积层为:11×11×96即尺寸为11×11,有96个卷积核,步长为4,卷积层后跟ReLU,因此输出的尺寸为(224-11)/4+1=55,因此其输出的每个feature map 为 55×55×96,同时后面跟LRN层,尺寸不变.
最大池化层,核大小为3×3,步长为2,因此feature map的大小为:27×27×96.
××第二层卷积层××
输入的tensor为27×27×96
卷积核的大小为: 5×5×256,步长为1,pad=2,group=2,尺寸不会改变,同样紧跟ReLU,和LRN层.因此,输出的尺寸为(27+2×2-5)/1+1=27,为27×27×256
最大池化层,和大小为3×3,步长为2,因此feature map为:13×13×256

××第三层至第五层卷积层××
输入的tensor为13×13×256
第三层卷积为 3×3×384,步长为1,加上ReLU,注意这里的group为1,因为看图这里相当于合并了,输出尺寸为(13+1×2-3)/1+1=13,输出为13×13×384
第四层卷积为 3×3×384,步长为1,加上ReLU,输出为13×13×384
第五层卷积为 3×3×256,步长为1,加上ReLU,输出为13×13×256
第五层后跟最大池化层,核大小3×3,步长为2,因此feature map:6×6×256
经过了一个池化层为
6×6×256
××接下来的三层为全连接层××,分别为:
Fc6:输入为(6×6×256)×4096个全连接层,生成的特征图为1×1×4096
加入了Dropout层,为Dropout6,在训练时以1/2的概率使隐藏层的某些神经元的输出为0,这样就丢掉了一般节点的输出,这些节点在BP时也不更新,生成的特征图为1×1×4096.
FC7:
输入: 1×1×4096,输出为1×1×4096,总参数为4096×4096
Dropout7,生成特征图为1×1×4096.
FC8:
输入: 1×1×4096,输出为1×1×1000,总参数为4096×1000

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值