自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 MobileNet论文详解

原文地址:https://arxiv.org/abs/1704.04861论文目标:设计一种深度模型加速的算法,可以在基本不影响准确率的前提下大大减少计算时间和参数数量。为移动和嵌入式视觉应用提出了一种有效的解决方案。论文的主要工作:提出一种将标准卷积层拆分成两个卷积层(depthwise和pointwise)的MolileNet网络,描述了一个有效的网络架构和一组...

2018-11-28 19:20:04 3210 2

原创 XceptionNet论文详解

原文地址:https://arxiv.org/pdf/1610.02357.pdf时间:出现于inception v4之后。论文目标:进一步提高网络性能(目标并非压缩网络)(在不增加网络复杂度的情况下)。论文的主要工作:受启发与inception模块,也可以说是对inception v3的一种改进,主要是采用depthwise separable co...

2018-11-28 19:02:19 5167

原创 Inceptionv4论文详解

原文地址:https://arxiv.org/pdf/1602.07261.pdf论文目标:将最先进的Inception和Residual结构结合起来同时也提出了我们不含残差结构的inception v4,以求达到性能上的进一步提升。论文工作:比较两种纯粹的Inception变体,Inception-v3和v4,以及类似昂贵的混合Inception-ResNet版本...

2018-11-28 18:48:10 11708 2

原创 Inceptionv3论文详解

原文地址:https://arxiv.org/pdf/1512.00567.pdf论文目标:高效增大网络,即通过适当的分解卷积和有效的正则化尽可能有效地利用所增加的计算。Inception网络的缺点分析:1.Inception架构的复杂性使得更难以对网络进行更改。如果单纯地放大架构,大部分的计算收益可能会立即丢失(计算效率高的优势立即降下来)。2.缺少一个关于I...

2018-11-28 17:57:08 16248 1

原创 Inceptionv2论文详解

原文地址:https://arxiv.org/pdf/1502.03167.pdf论文主要内容:提出BatchNorm,加在InceptionV1上。之前的问题:模型训练起来困难,因为训练深度神经网络的复杂性在于,每层输入的分布在训练过程中会发生变化,因为前面的层的参数会发生变化。我们将这种现象称为内部协变量转移。思路由来简介:1.以往做法:利用带...

2018-11-27 00:56:16 3243 1

原创 GoogleNet(Inceptionv1)论文详解

原文地址:https://arxiv.org/pdf/1409.4842.pdf论文研究目标:利用赫布理论和多尺度处理直觉设计一种增加深度和宽度的提高内部计算资源利用率的(同时保持了计算预算不变)网络。传统提神网络性能的方法和缺点:最简单的CNN性能提升办法是增大网络的depth和width,这里的width指的是每一层的神经元数量。这种方式要两个缺点:1.增加...

2018-11-27 00:33:34 1663

原创 SqueezeNet论文详解

原文地址:https://arxiv.org/pdf/1602.07360.pdf网络介绍:本文提出SqeezeNet。它在ImageNet上实现了和AlexNet相同的正确率,但是只使用了1/50的参数。更进一步,使用模型压缩技术,可以将SqueezeNet压缩到0.5MB,这是AlexNet的1/510。架构的提出动机(轻量化模型的好处):1.提高分布式训练的效...

2018-11-27 00:19:36 1492

原创 SeNet论文详解

原文地址:https://arxiv.org/pdf/1709.01507.pdf背景:最后一届ImageNet 2017竞赛 Image Classification任务的冠军.作者采用SENet block和ResNeXt结合在ILSVRC 2017的分类项目中拿到第一,在ImageNet数据集上将top-5 error降低到2.251%,原先的最好成绩是2.991%。...

2018-11-21 23:29:30 7576 1

原创 DenseNet论文详解

原文地址:https://arxiv.org/pdf/1608.06993.pdf结构提出的支持观点: 如果卷积网络在靠近输入的层与靠近输出的层之间包含更短的连接,那么卷积网络的深度可以显著增加,准确度更高,并且更易于训练。 观点支持理由: 随着CNN越来越深,出现了一个新的研究问题:梯度弥散。许多最近的研究致力于解决这个问题或相关的问题。Re...

2018-11-21 00:00:11 1849 1

原创 ResNet论文详解

原文地址:https://arxiv.org/pdf/1512.03385.pdf论文目标:提出一种方法使更深的卷积神经网络的训练成为可能。论文工作:将网络层要学习的函数关系变为学习关于层输入的残差函数,不是学习没有参考的函数。传统思路:更好的网络是不是靠堆叠更多的层就能实现。堆叠网络的缺点:1.网络难以收敛,梯度消失/爆炸在一开始就阻碍网络的收敛...

2018-11-19 20:28:53 45454 1

原创 GoogLeNet论文详解

原文地址:https://arxiv.org/pdf/1409.4842.pdf论文研究目标:利用赫布理论和多尺度处理直觉设计一种增加深度和宽度的提高内部计算资源利用率的(同时保持了计算预算不变)网络。传统提神网络性能的方法和缺点:最简单的CNN性能提升办法是增大网络的depth和width,这里的width指的是每一层的神经元数量。这种方式要两个缺点:1.增加...

2018-11-19 09:18:39 4876 1

原创 VGGNet论文详解

原文地址:https://arxiv.org/pdf/1409.1556.pdfVGG简介:VGG卷积神经网络是牛津大学在2014年提出来的模型。当这个模型被提出时,由于它的简洁性和实用性,马上成为了当时最流行的卷积神经网络模型。它在图像分类和目标检测任务中都表现出非常好的结果。在2014年的ILSVRC比赛中,VGG 在Top-5中取得了92.3%的正确率。同年的冠军是googl...

2018-11-19 00:59:26 12034 2

原创 AlexNet论文详解

原文地址:http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf背景:2012ILSVRC(Imagenet大规模视觉识别挑战赛)冠军。第一次有模型在lmagenet数据集上出色表现。使用大型深度卷积神经网络,真正展示了CNN优点。Alex 等人将...

2018-11-18 23:38:10 7028

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除