图像分类
文章平均质量分 93
春枫琰玉
这个作者很懒,什么都没留下…
展开
-
重读经典-EfficientNet
EfficientNet也是以前看过的一篇文章的,当时主要看了网络结构,对于文章的思考并没有很深入,这次重新看一下,加深一下对于文章的思考。作者:Google论文链接:https://arxiv.org/abs/1905.11946开源代码:https://github.com/tensorflow/tpu/tree/master/models/official/efficientnetModel Scaling本篇文章的重点是Model Scaling,至于Efficientnet只是作者在原创 2020-12-01 16:56:59 · 614 阅读 · 0 评论 -
GhostNet
本篇论文是发表于CVPR2020的一篇轻量级网络的论文,作者是华为诺亚方舟实验室,文章的总体思路比较清晰,为了减少网络计算量,作者将传统的卷积分成两步进行,首先利用较少的计算量通过传统的卷积生成channel较小的特征图,然后在此特征图的基础上,通过cheap operation(depthwise conv)再进一步利用较少的计算量,生成新的特征图,最后将两组特征图拼接到一起,得到最终的out...原创 2020-03-08 21:00:41 · 20012 阅读 · 1 评论 -
Amazon深度学习工程师总结的分类模型炼丹技巧总结
论文名称:Bag of Tricks for Image Classification with Convolutional Neural Networks论文链接:https://arxiv.org/pdf/1812.01187.pdfhttps://arxiv.org/pdf/1812.01187.pdf很多时候,外界同学管深度学习算法工程师叫做调参工程师,简单直接的概括了深度学习工程师的...原创 2019-01-27 22:00:29 · 2766 阅读 · 6 评论 -
shuffleNet阅读笔记
论文名称:ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices论文链接:https://arxiv.org/abs/1707.01083摘要shuffleNet是face++在2017年提出,目的是提高深度模型的执行效率,降低对硬件的依赖,可在移动端执行。我们知道深度...原创 2018-08-14 12:40:14 · 2156 阅读 · 0 评论 -
residual attention network 论文解读
论文下载链接:https://arxiv.org/abs/1704.06904github代码下载链接caffe:https://github.com/fwang91/residual-attention-network摘要简介在本篇论文中,提出了Residual attention network,该网络利用attention机制(可以将该结构使用到现有的端到端的卷积网络中),Res...原创 2018-08-01 12:54:45 · 8145 阅读 · 8 评论 -
mobileNet-一个典型的网络加速的例子
论文链接:https://arxiv.org/abs/1704.04861 MXNet框架代码:https://github.com/miraclewkf/mobilenet-MXNetmoblileNet,顾名思义,可以在移动端使用的网络,那必然要求网络的计算量要小一些,不然移动端可扛不住啊,那MobileNet如何做到这个的呢??总结来看,其主要创新点就在于论文中反复强调的depth-...原创 2018-07-05 20:56:21 · 3623 阅读 · 1 评论 -
densenet与resneXt的巧妙结合-DPN网络
DPN是在resneXt,denseNet之后,对resnet系列的进一步创新,作者巧妙的将resnet与denseNet相结合,提出了dual path architectures,构造了DPN网络结构。 那么DPN的创新点有哪些呢?如下:DPN具有更小的模型以及更少的计算量,具有更好的训练速度。作者在论文中的描述为:[In particular,on the ImageNet...原创 2018-05-30 14:35:45 · 7421 阅读 · 0 评论 -
SPP-Net 论文笔记
简介SPP-net是何凯明团队在rbg大神提出R-CNN之后提出的比较有创新性的网络,其主要贡献在于: 1.打破了CNN网络需要输入固定大小的图像的限制,利用Spatial Pyramid Pooling方法,不需要像以前一样需要对图像进行裁剪等操作,而是直接将entire image输入。2.利用SPP-Net进行图像分类以及目标检测,虽然对于精度并没有特别明显的提升,但是在objec...原创 2018-03-19 22:15:29 · 752 阅读 · 0 评论 -
GoogleNetV4 Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning
论文链接:https://arxiv.org/abs/1602.072611、简介本文主要是将googLeNet的Inception模块与ResNet结构进行融合,得到Inception-ResNet结构,作者通过实验发现,该结构对于图像识别的准确率并没有较大的提升但是对于网络的收敛速度有了较大的改进。2、Inception V4话不多说,直接上图: 所有图中没有标记“V”的卷...原创 2018-02-14 17:46:20 · 637 阅读 · 0 评论 -
GoogleNetV3 Rethinking the Inception Architecture for Computer Vision
论文链接:https://arxiv.org/abs/1512.005671、introductionGoogLeNet与VGG在2014年ImageNet比赛中均取得了较好的成绩,但是在参数数量和计算资源方面,GoogLeNet更少,GoogLeNet有大约5百万个参数,相比较与6000万参数的AlexNet,少了12倍,而VGG的参数数量是AlexNet参数数量的3倍多,因此Goo...原创 2018-02-13 18:58:02 · 505 阅读 · 0 评论 -
GoogleNet V1 Going deeper with convolutions
论文链接:http://arxiv.org/pdf/1409.4842v1.pdf1、简介GoogleNet V1作为ILSVRC2014比赛的冠军,一经问世便受到了广泛的关注,并且也得益于其独特的网络设计,相比较于同期的VGG,GoogleNet使得网络的深度得到了进一步的增加,网络宽度更宽,卷积层数量更多。之后又在V1的基础上发展出了V2-V4版本,使得识别准确率进一步提升。2、G原创 2018-01-29 20:13:35 · 363 阅读 · 0 评论 -
解密ResNet:Identity Mappings in Deep Residual Networks
论文链接:https://arxiv.org/abs/1603.05027本篇文章是对ResNet取得较好效果的分析与改进,在过去residual block的基础上,提出了新的residual block,并通过一系列实验验证了identity mapping能对模型训练产生很好的效果。1、介绍1、ResNet block表示:resnet block结果如下: res原创 2018-02-05 18:46:13 · 1161 阅读 · 0 评论 -
ResNet(Deep Residual Learning for Image Recognition)
论文链接:https://arxiv.org/abs/1512.03385Resnet是2015年ImageNet比赛的冠军,不仅在分类上标线优秀,在目标检测中同样取得好成绩,Resnet将网络层数进一步加深,甚至达到1000+层。1、Degradation根据经验,如果没有发生梯度消失、弥散现象,网络层数越深效果会越好,但是作者实验发现,虽然网络层数增加,但是训练会出现饱和现象原创 2018-02-04 17:16:05 · 1575 阅读 · 0 评论 -
VGG
VGG网络简介VGG网络是在AlexNet网络的基础上发展而来的,其主要贡献在于使用非常小的3*3的卷积核进行网络设计,并且将网络深度增加到16-19层。在2014年ImageNet比赛中,获得了定位第1,分类第2的好成绩,网络具有很好的泛化能力。VGG网络结构 网络结构 如下图是VGG网络不同深度的网络结构图,从左到右层数在增加。 对比与AlexNet的异同 VGG与原创 2018-01-17 20:29:46 · 16413 阅读 · 0 评论 -
AlexNet
一、AlexNet网络简介AlexNet是较早期的一个卷积神经网络,由于其在ImageNet比赛中的出色表现(top1与top5的error rate分别为37.5%与17%),也掀起了学术界对深度学习的研究热潮,下面结合AlexNet的论文,对AlexNet进行简单的总结,有不足的地方,欢迎指正。二、alexNet网络结构AlexNet为8层结构,其中前5层为卷积层,后面3原创 2018-01-17 13:06:13 · 6262 阅读 · 2 评论 -
Network In Network
写在前面的话1、网络简介Network In Network是2014年ICLR中一篇比较出众的论文,该论文在CNN的基础上,通过设计mlpConv以及利用全局Pooling替代全连接层的方式,不仅减少了参数的数量,同时减少了过拟合的发生。同时GoogleNet中也采用了Network In Network中的思想,下面对论文进行详细的总结。2、Introduction1、原创 2018-01-21 17:41:56 · 733 阅读 · 0 评论 -
Visualizing and Understanding Convolutional Networks
论文链接:https://link.springer.com/chapter/10.1007/978-3-319-10590-1_53本文贡献CNN在图像分类中的表现中取得了惊人的进展,但是对于为什么CNN表现的如此之好还没有一个清晰的解释。本文主要介绍如何利用反卷积进行CNN的可视化,通过对特征图进行反卷积,直观感受特征图提取到的图像特征,对CNN的分类结果加以说明,同时介绍了基于CNN原创 2018-01-24 15:04:43 · 326 阅读 · 0 评论 -
Batch Normalization
本文链接:https://arxiv.org/abs/1502.03167简介在深度神经网络训练的过程中,当前面层的参数发生变化时,会导致后面层输入数据的分布变化,进而影响训练效果,使网络的训练变得复杂。本文提出了一种Batch Normalization方法解决这个问题,该方法可以使用较大的学习率进行学习,同时可以忽略掉dropout的作用,提高模型收敛速度,提高识别率。Intr原创 2018-01-31 16:38:24 · 602 阅读 · 0 评论