深度学习—卷积神经网络AlexNet

本文介绍了深度学习中的重要里程碑—AlexNet,详细分析了其历史、网络结构,并探讨了ReLu函数、最大池化、随机丢弃、数据扩增及GPU加速等关键改进,这些方法对现代深度神经网络训练有着重要影响。
摘要由CSDN通过智能技术生成

在这一讲中,我们将详细讲解深度学习发展中的重要里程碑AlexNet

1. AlexNet的历史

2012年Geoffrey Hintton的学生ALEX Krizhevsky构建了一个包含65万多个神经元,待估计参数超过6000万的大规模的卷积神经网络。他以自己的名字命名了这个神经网络叫作AlexNet,用以解决ImageNet数据集1000类的分类问题。在2012年,ImageNet测试比赛上取得了远超GooleFacebook两个大公司的成绩。相比前面讲过的LeNetAlexNet在网络结构上深了很多,即神经网络层数和每层神经元个数多了很多,但其基本思想与LeNet完全一样,我们看懂了LeNet后能很容易看懂AlexNet,下图1是AlexNet的网络结构图。

在这里插入图片描述

图1 AlexNet网络结构图

2. AlexNet网络结构简要分析

从图1也可以看到,它也是由一些卷积层、降采样层和全连接层组成的。需要注意的是层与层之间也有非线性函数Batch Normalization,图中没有画出。下面举例说明AlexNet的网络结构。

例如在图中第一个卷积层中,输入的是227×227的彩色图片,由于彩色图片有RGB三个颜色分量,所以channel数量为3。第一个卷积层有96个11×11×3的卷积核,卷积的步长stride=(4,4)

根据上一讲的思考题,如果一个M×N的图像和一个m×n的卷积核进行操作,移动步长stride=(P,Q),即在长的方向上每步移动P个像素,在宽这个方向上每步移动Q个像素,请问经过卷积操作后获得的特征图的长H和宽W分别是多少呢?

H = f l o o r ( M − m P ) + 1 H=floor(\frac{M-m}{P})+1 H=floor(PMm)+1

W = f l o o r ( N − n Q )

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值