四、经典网络2(AlexNet)

模型结构

模型解读

conv1 阶段 DFD(data flow diagram):

第一层输入数据为原始的 227*227*3 的图像,这个图像被 11*11*3 的卷积核进行卷积运算,卷积核对原始图像的每次卷积都生成一个新的像素。卷积核沿原始图像的 x 轴方向和 y 轴方向两个方向移动,移动的步长是 4 个像素。因此,卷积核在移动的过程中会生成(227-11)/4+1=55个像素(227 个像素减去 11,正好是 54,即生成 54 个像素,再加上被减去的 11 也对应生成一个像素),行和列的 55*55 个像素形成对原始图像卷积之后的像素层。共有 96 个卷积核,会生成 55*55*96 个卷积后的像素层。96 个卷积核分成 2 组,每组 48 个卷积核。对应生成 2 组55*55*48 的卷积后的像素层数据。这些像素层经过 relu1 单元的处理,生成激活像素层,尺寸仍为 2 组 55*55*48 的像素层数据。 这些像素层经过 pool 运算(池化运算)的处理,池化运算的尺度为 3*3,运算的步长为 2,则池化后图像的尺寸为(55-3)/2+1=27。 即池化后像素的规模为 27*27*96;然后经过归一化处理,归一化运算的尺度为 5*5;第一卷积层运算结束后形成的像素层的规模为 27*27*96。分别对应 96 个卷积核所运算形成。这 96 层像素层分为 2 组,每组 48 个像素层,每组在一个独立的 GPU 上进行运算。 反向传播时,每个卷积核对应一个偏差值。即第一层的 96 个卷积核对应上层输入的 96 个偏差值。

conv2 阶段 DFD(data flow diagram):

 

第二层输入数据为第一层输出的 27*27*96 的像素层,为便于后续处理,每幅像素层的左右两边和上下两边都要填充 2 个像素;27*27*96 的像素数据分成 27*27*48 的两组像素数据,两组数据分别再两个不同的 GPU 中进行运算。每组像素数据被 5*5*48 的卷积核进行卷积运算,卷积核对每组数据的每次卷积都生成一个新的像素。卷积核沿原始图像的 x 轴方向和 y 轴方向两个方向移动, 移动的步长是1个像素 。因此 ,卷积核在移 动 的 过 程 中 会 生 成 (27-5+2*2)/1+1=27 个像素。27 个像素减去 5,正好是 22,在加上上下、左右各填充的 2 个像素,即生成 26 个像素,再加上被减去的 5 也对应生成一个像素),行和列的 27*27 个像素形成对原始图像卷积之后的像素层。共有 256 个 5*5*48 卷积核;这 256 个卷积核分成两组,每组针对一个 GPU 中的 27*27*48 的像素进行卷积运算。会生成两组 27*27*128 个卷积后的像素层。这些像素层经过 relu2 单元的处理,生成激活像素层,尺寸仍为两组 27*27*128 的像素层。
这些像素层经过 pool 运算(池化运算)的处理,池化运算的尺度为 3*3,运算的步长为 2,则池化后图像的尺寸为(57-3)/2+1=13。 即池化后像素的规模为 2 组 13*13*128 的像素层;然后经过归一化处理,归一化运算的尺度为 5*5;第二卷积层运算结束后形成的像素层的规模为2 组 13*13*128 的像素层。分别对应 2 组 128 个卷积核所运算形成。每组在一个 GPU 上进行运算。即共 256 个卷积核,共 2 个 GPU 进行运算。
反向传播时,每个卷积核对应一个偏差值。即第一层的 96 个卷积核对应上层输入的 256个偏差值。

conv3 阶段 DFD(data flow diagram):

第三层输入数据为第二层输出的 2 13*13*128 的像素层;为便于后续处理,每幅像素层的左右两边和上下两边都要填充 1 个像素; 2 组像素层数据都被送至 2 个不同的 GPU 中进行运算。每个 GPU 中都有 192 个卷积核,每个卷积核的尺寸是 3*3*256 。因此,每个 GPU 中的卷积核都能对 2 13*13*128 的像素层的所有数据进行卷积运算。卷积核对每组数据的每次卷积都生成一个新的像素。卷积核沿像素层数据的 x 轴方向和 y 轴方向两个方向移动,移动的步长是 1个像素。因此,运算后的卷积核的尺寸为(13-3+1*2)/1+1=13 13 个像素减去 3 ,正好是 10 ,在加上上下、左右各填充的 1 个像素,即生成 12 个像素,再加上被减去的 3 也对应生成一个像素),每个 GPU 中共 13*13*192 个卷积核。 2 GPU 中共 13*13*384 个卷积后的像素层。这些像素层经过 relu3 单元的处理,生成激活像素层,尺寸仍为 2 13*13*192 像素层,共13*13*384 个像素层。

conv4 阶段 DFD(data flow diagram):

 

第四层输入数据为第三层输出的 2 13*13*192 的像素层;为便于后续处理,每幅像素层的左右两边和上下两边都要填充 1 个像素; 2 组像素层数据都被送至 2 个不同的 GPU 中进行运算。每个 GPU 中都有 192 个卷积核,每个卷积核的尺寸是 3*3*192 。因此,每个 GPU 中的卷积核能对 1 13*13*192 的像素层的数据进行卷积运算。卷积核对每组数据的每次卷积都生成一个新的像素。卷积核沿像素层数据的 x 轴方向和 y 轴方向两个方向移动,移动的步长是 1 个像素。因此,运算后的卷积核的尺寸为(13-3+1*2)/1+1=13 13 个像素减去 3 ,正好是 10 ,在加上上下、左右各填充的 1 个像素,即生成 12 个像素,再加上被减去的 3 也对应生成一个像素),每个 GPU 中共 13*13*192 个卷积核。 2 GPU 中共 13*13*384 个卷积后的像素层。这些像素层经过 relu4 单元的处理,生成激活像素层,尺寸仍为 2 13*13*192 像素层,共 13*13*384 个像素层。

conv5 阶段 DFD(data flow diagram):

 

第五层输入数据为第四层输出的2组13*13*192的像素层;为便于后续处理,每幅像素层的左右两边和上下两边都要填充1个像素;2组像素层数据都被送至2个不同的GPU中进行运算。每个GPU中都有128个卷积核,每个卷积核的尺寸是3*3*192。因此,每个GPU中的卷积核能对1组13*13*192的像素层的数据进行卷积运算。卷积核对每组数据的每次卷积都生成一个新的像素。卷积核沿像素层数据的x轴方向和y轴方向两个方向移动,移动的步长是1个像素。因此,运算后的卷积核的尺寸为(13-3+1*2)/1+1=13(13个像素减去3,正好是10,在加上上下、左右各填充的1个像素,即生成12个像素,再加上被减去的3也对应生成一个像素),每个GPU中共13*13*128个卷积核。2个GPU中共13*13*256个卷积后的像素层。这些像素层经过relu5单元的处理,生成激活像素层,尺寸仍为2组13*13*128像素层,共13*13*256个像素层。

2组13*13*128像素层分别在2个不同GPU中进行池化(pool)运算处理。池化运算的尺度为3*3,运算的步长为2,则池化后图像的尺寸为(13-3)/2+1=6。 即池化后像素的规模为两组6*6*128的像素层数据,共6*6*256规模的像素层数据。

fc6 阶段 DFD(data flow diagram):

 

第六层输入数据的尺寸是6*6*256,采用6*6*256尺寸的滤波器对第六层的输入数据进行卷积运算;每个6*6*256尺寸的滤波器对第六层的输入数据进行卷积运算生成一个运算结果,通过一个神经元输出这个运算结果;共有4096个6*6*256尺寸的滤波器对输入数据进行卷积运算,通过4096个神经元输出运算结果;这4096个运算结果通过relu激活函数生成4096个值;并通过drop运算后输出4096个本层的输出结果值。

由于第六层的运算过程中,采用的滤波器的尺寸(6*6*256)与待处理的feature map的尺寸(6*6*256)相同,即滤波器中的每个系数只与feature map中的一个像素值相乘;而其它卷积层中,每个滤波器的系数都会与多个feature map中像素值相乘;因此,将第六层称为全连接层。

第五层输出的6*6*256规模的像素层数据与第六层的4096个神经元进行全连接,然后经由relu6进行处理后生成4096个数据,再经过dropout6处理后输出4096个数据。

fc7 阶段 DFD(data flow diagram):

 

第六层输出的 4096 个数据与第七层的 4096 个神经元进行全连接,然后经由 relu7 进行处理后生成 4096 个数据,再经过 dropout7 处理后输出 4096 个数据。

fc8 阶段 DFD(data flow diagram):

第七层输出的 4096 个数据与第八层的 1000 个神经元进行全连接,经过训练后输出被训练的数值。

模型特性

使用 ReLU 作为非线性
使用 dropout 技术选择性地忽略训练中的单个神经元,避免模型的过拟合
重叠最大池化(overlapping max pooling),避免平均池化(average pooling)的平均效应
使用 NVIDIA GTX 580 GPU 减少训练时间
当时, GPU CPU 提供了更多的核心,可以将训练速度提升 10 倍,从而允许使用更大的数据集和更大的图像。

 

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

满满myno

非常感谢对我创作的支持,爱你呦

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值