AlexNet网络详解与pytorch实现

最近在学习B站一个up主的视频,很棒。故决定在学习过程中进行笔记整理和总结。(无它,自用自勉)

给出收藏的博主笔记及up主笔记,以便自己日后查找翻阅。博主链接-AlexNet

(内里给出几篇参考博客可读)

AlexNet详解

        AlexNet与LeNet的架构非常相似,但也存在显著差异。其比LeNet5要深得多,由八层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层;AlexNet采用ReLU而非Sigmoid作为激活函数。由于早期的GPU显存有限,所以原版AlexNet采用了双数据流设计,使每个GPU只负责存储和计算模型的一半参数。同时,AlexNet通过dropout控制全连接层的模型复杂度,而LeNet只使用了权重衰减。

在这里插入图片描述

使用Dropout的方式在网络正向传播过程中随机失活一部分神经元,以减少过拟合 

在这里插入图片描述

在这里插入图片描述

可以发现,除 Conv1 外,AlexNet 的其余卷积层都是在改变特征矩阵的深度,而池化层则只改变(减小)其尺寸。

1.各层详解

Conv1

在这里插入图片描述

注意:原作者实验时用了两块GPU并行计算,上下两组图的结构是一样的。

  • 输入:input_size = [224, 224, 3]
  • 卷积层:

kernels = 48 * 2 = 96 组卷积核(输出深度)、kernel_size = 11

padding = [1, 2] ()、stride = 4

  • 输出:output_size = [55, 55, 96]

经 Conv1 卷积后的输出层尺寸为:

                                        Output = \frac{​{W - F + 2P}}{S} + 1 = \frac{​{224 - 11 + (1 + 2)}}{4} + 1 = 55

Maxpool1

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值