Alexnet 和 VGGnet学习整理笔记

Alex Net

AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的。也是在那年之后,更多的更深的神经网路被提出,比如优秀的vgg,GoogleLeNet。其官方提供的数据模型,准确率达到57.1%,top 1-5 达到80.2%. 这项对于传统的机器学习分类算法而言,已经相当的出色。

上图所示是caffe中alexnet的网络结构,上图采用是两台GPU服务器,所以会看到两个流程图。下边把AlexNet的网络结构示意一下:

评价:

(1) AlexNet使用ReLU代替了Sigmoid,其能更快的训练,同时解决sigmoid在训练较深的网络中出现的梯度消失,或者说梯度弥散的问题。激活函数的主要作用是引入了非线性。

(2) 随机dropout一些神经元,以避免过拟合。

(3) 在以前的CNN中普遍使用平均池化层average pooling,AlexNet全部使用最大池化层 max pooling,避免了平均池化层的模糊化的效果,并且步长比池化的核的尺寸小,这样池化层的输出之间有重叠,提升了特征的丰富性。

(4) 提出LRN层,局部响应归一化,对局部神经元创建了竞争的机制,使得其中响应较大的值变得更大,并抑制反馈较小的。(强者更强,弱者更弱)

(5) 使用了gpu加速神经网络的训练。

(6) 使用数据增强的方法缓解过拟合现象。

VGG

VGG深度学习模型主要从Alex-net发来而来,其在Alex-net基础上,主要修改了两个方面:

i.在第一个卷基层使用更小的filter尺寸和间隔。

ii.在整个图片和multi-scale上训练和测试图片。

 

1.VGG网络配置结构

2.VGG结构解释

(1)VGG全部使用3*3卷积核、2*2池化核,不断加深网络结构来提升性能。

(2)A到E网络变深,参数量没有增长很多,参数量主要在3个全连接层。

(3)训练比较耗时的依然是卷积层,因计算量比较大。

(4)VGG有5段卷积,每段有2~3个卷积层,每段尾部用池化来缩小图片尺寸。

(5)每段内卷积核数一样,越靠后的段卷积核数越多:64-128-256-512-512。

3. VGG理解

VGG16输入224*224*3的图片,经过的卷积核大小为3x3x3,stride=1,padding=1,pooling为采用2x2的max pooling方式:

 

1.输入224x224x3的图片,经过64个卷积核的两次卷积后,采用一次pooling。经过第一次卷积后,c1有(3x3x3)个可训练参数。

2.之后又经过两次128的卷积核卷积之后,采用一次pooling。

3.再经过三次256的卷积核的卷积之后,采用pooling。

4.重复两次三个512的卷积核卷积之后再pooling。

5.三次Fc。

AlexNet VGG-Net的区别

AlexNet 是一种典型的 convolutional neural network,它由5层 convolutional layer,2层 fully connected layer,和最后一层 label layer (1000个node, 每个node代表ImageNet中的一个类别) 组成。2012年,deep learning的大牛教授 Geoffrey Hinton (University of Toronto, Google) 的学生Alex Krizhevsky 设计了一个8层的CNN,并把它用于ImageNet的image classification,直接把当时最好算法的错误率差不多减半。这引起了computer vision community 的强烈关注。这篇文章的出现也是 deep learning 开始被 computer vision community 接受的关键转折点。如是后来大家把这个8层的CNN命名为AlexNet。

VGG-Net同样也是一种CNN,它来自 Andrew Zisserman 教授的组 (Oxford),VGG-Net 在2014年的 ILSVRC localization and classification 两个问题上分别取得了第一名和第二名,VGG-Net不同于AlexNet的地方是:VGG-Net使用更多的层,通常有16-19层,而AlexNet只有8层。另外一个不同的地方是:VGG-Net的所有 convolutional layer 使用同样大小的 convolutional filter,大小为 3 x 3。

AlexNet和VGG-Net 中的 feature

Deep learning 实际上是一种 feature engineering 的方法。不论是AlexNet还是VGG-Net,倒数第二层都可以很好的描述image全局特征,所以它们通常用来当作 input image 新的 feature,用来做 image classification(最后一层N个node的softmax层,代表了N个类别)。那么, AlexNet 和 VGG-Net 的 intermediate layer(中间层)呢? 他们是否也可以作为特征来使用? 答案是肯定的。 这些 intermediate convolutional layer 描述了影像的 local feature (局部特征),而最后的几层(倒数第二、第三层) fully connected layer,描述了影像的 global feature (全局特征)。如果一个 deep architecture 只有 convolutional layer, 那么 input image 可以任意大小,可是一旦在convolutional layer 上面叠加上 fully connected layer,input image大小就需要固定了。今年CVPR有好多文章使用 convolutionally filtered intermediate layer 作为 local feature,典型的代表有 Jitendra Malik (Berkeley) 组的 Hypercolumns for Object Segmentation and Fine-grained Localization,Xiaoou Tang (CUHK) 组的 Action Recognition With Trajectory-Pooled Deep-Convolutional Descriptors。

参考:

https://blog.csdn.net/malele4th/article/details/79404731?utm_source=blogxgwz4

https://blog.csdn.net/Errors_In_Life/article/details/65950699?utm_source=blogxgwz11

https://blog.csdn.net/gbyy42299/article/details/78969261

https://blog.csdn.net/roguesir/article/details/77051250?utm_source=blogxgwz4

https://blog.csdn.net/wcx1293296315/article/details/79995851

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
alexnetvgg16、resnet101和densenet161是流行的图像分类模型。这些模型在ImageNet数据集上进行了训练,并在深度学习领域中取得了显著的成就。 AlexNet是第一个在ImageNet上取得重大突破的深度卷积神经网络模型。它具有较少的层次结构,但通过使用更多的卷积层和参数来增加模型的复杂性,使其能够更好地对图像进行分类。然而,由于其较浅的结构,在更复杂的任务上可能性能不如其他模型VGG16是由牛津大学的研究人员开发的一个深度卷积神经网络模型。它的主要特点是具有很深的卷积层和小的3x3卷积核。VGG16在ImageNet上取得了很好的性能,但由于其巨大的模型大小,训练和推理的时间和计算资源成本较高。 ResNet101是一个非常深的残差网络模型,利用残差单元来解决深度网络的退化问题。这意味着它可以更好地处理网络深度增加时的梯度消失和梯度爆炸问题。ResNet101在ImageNet上达到了非常高的精度,是目前最先进的图像分类模型之一。 Densenet161是一个密集连接的卷积神经网络模型。它通过每个层连接所有前面层的输出,使得信息可以更好地流动,从而提高了网络的性能。Densenet161在ImageNet上表现出了很好的性能,但与其他模型相比,它的模型大小和计算资源成本也较高。 综上所述,这些模型各有优劣。AlexNet相对较简单,但性能较弱;VGG16在性能上表现不错,但模型较大;ResNet101具有非常深的结构和高精度;Densenet161通过密集连接优化了信息流动。选择模型应根据具体任务需求和计算资源的可用性来决定。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [ImageNet:这样就可以对ImageNet数据集上的流行模型架构(例如AlexNet...vgg,resnet,squeezenet,densenet)](https://download.csdn.net/download/weixin_42179184/18522395)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [人工智能详细笔记(第二节课):CNN AlexNet NIN VGG GoogleNet ResNet DenseNet(初学者友好版本)](https://blog.csdn.net/hanmo22357/article/details/129375218)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值