AlexNet论文理解及Tensorfow实现

本文详细介绍了AlexNet的网络结构,包括5个卷积层和3个全连接层,并探讨了其在2012年ImageNet比赛中的突破。AlexNet的创新点包括ReLU激活函数、多GPU并行计算、局部响应归一化等。此外,还讨论了如何在TensorFlow中实现AlexNet,并提到了数据增强和Dropout等防止过拟合的策略。
摘要由CSDN通过智能技术生成

1. 基本介绍

AlexNet,是Hinton的学生Alex Krizhevsky在2012年ImageNet比赛夺冠时使用的网络(在ILSVRC-2010上top-1与top-5错误率为37.5%和17.0%,在ILSVRC-2012上top-5错误率为15.3%),在这之后众多优秀网络结构也相继出现,该网络出自论文《‘ImageNet Classification with Deep Convolutional Neural Networks’》

2. 网络结构

AlexNet
AlexNet由8个学习层组成包括5个卷积层和3个全连接层。

1. conv1
step1(卷积):
输入: 224 × 224 × 3 224\times224\times3 224×224×3的图片(实际上经过预处理变为 227 × 227 × 3 227\times227\times3 227×227×3)
卷积核: 11 × 11 × 3 11\times11\times3 11×11×3
步长: 4 4 4
数量: 96 96 96(分成两个服务器,每个为 48 48 48个)
卷积后的数据: 55 × 55 × 96 ⇒ 55 = ( 227 − 11 ) / 4 + 1 55\times55\times96\Rightarrow55=(227-11)/4+1 55×55×9655=(22711)/4+1
step2(ReLU):
ReLU激励函数

step3(池化):
最大池化,池化核: 3 × 3 3\times3 3×3,步长: 2 2 2
池化后的数据(下采样): 27 × 27 × 96 ⇒ 27 = ( 55 − 3 ) / 2 + 1 27\times27\times96\Rightarrow27=(55-3)/2+1 27×27×9627=(553)/2+1

2. conv2
step1(卷积):
输入: 27 × 27 × 96 27\times27\times96 27×27×96
卷积核: 5 × 5 × 96 5\times5\times96 5×5×96
步长: 1 1 1
数量: 256 256 256
卷积后的数据: 27 × 27 × 256 ⇒ 27 = ( 27 + 2 × 2 − 5 ) / 1 + 1 27\times27\times256\Rightarrow27=(27+2\times2-5)/1+1 27×27×25627=(27+2×25)/1+1

step2(ReLU):
ReLU激励函数

step3(池化):
最大池化,池化核: 3 × 3 × 256 3\times3\times256 3×3×256,步长: 2 2 2
池化后的数据(下采样): 13 × 13 × 256 ⇒ 13 = ( 27 − 3 ) / 2 + 1 13\times13\times256\Rightarrow13=(27-3)/2+1 13×13×25613=(273)/2

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值