深度学习之经典网络架构:AlexNet

一、简介

        AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的。也是在那年之后,更多的更深的神经网路被提出,比如优秀的vgg,GoogleLeNet。其官方提供的数据模型,准确率达到57.1%,top 1-5 达到80.2%. 这项对于传统的机器学习分类算法而言,已经相当的出色。

二、网络结构

       

上图所示是alexnet的网络结构,上图采用是两台GPU服务器,所有会看到两个流程图。下边把AlexNet的网络结构示意一下:

三、AlexNet中的trick

   AlexNet将CNN用到了更深更宽的网络中,其效果分类的精度更高相比于以前的

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
AlexNet是一种深度卷积神经网络,主要用于图像分类任务。它的整体流程如下: 1. 输入层:将图片作为输入,输入的大小为227x227x3(长,宽,通道)。 2. 卷积层1:使用96个大小为11x11x3的卷积核对输入进行卷积,步长为4,得到96个大小为55x55x1的特征图。同时使用ReLU激活函数进行非线性变换,减少梯度消失的问题。 3. 池化层1:使用大小为3x3的最大池化进行下采样,步长为2,得到96个大小为27x27x1的特征图。 4. 卷积层2:使用256个大小为5x5x48的卷积核对上一层的输出进行卷积,得到256个大小为27x27x1的特征图。同时使用ReLU激活函数进行非线性变换。 5. 池化层2:使用大小为3x3的最大池化进行下采样,步长为2,得到256个大小为13x13x1的特征图。 6. 卷积层3:使用384个大小为3x3x256的卷积核对上一层的输出进行卷积,得到384个大小为13x13x1的特征图。同时使用ReLU激活函数进行非线性变换。 7. 卷积层4:使用384个大小为3x3x192的卷积核对上一层的输出进行卷积,得到384个大小为13x13x1的特征图。同时使用ReLU激活函数进行非线性变换。 8. 卷积层5:使用256个大小为3x3x192的卷积核对上一层的输出进行卷积,得到256个大小为13x13x1的特征图。同时使用ReLU激活函数进行非线性变换。 9. 池化层3:使用大小为3x3的最大池化进行下采样,步长为2,得到256个大小为6x6x1的特征图。 10. 全连接层1:将上一层的输出展开成一维向量,经过4096个神经元的全连接层,得到一个长度为4096的向量。同时使用ReLU激活函数进行非线性变换。 11. Dropout层1:对全连接层1的输出进行随机失活,防止过拟合。 12. 全连接层2:将上一层的输出经过4096个神经元的全连接层,得到一个长度为4096的向量。同时使用ReLU激活函数进行非线性变换。 13. Dropout层2:对全连接层2的输出进行随机失活,防止过拟合。 14. 全连接层3:将上一层的输出经过1000个神经元的全连接层,得到一个长度为1000的向量,表示图像属于1000个类别中的哪一个。 15. 输出层:使用Softmax函数将全连接层3的输出转换为概率分布,得到每个类别的概率。 整个AlexNet网络的训练过程中采用了数据增强、随机失活、批量归一化等技术,提高了模型的泛化能力和鲁棒性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

35仍未老

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值