![](https://img-blog.csdnimg.cn/20210505212221779.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
图像分类
文章平均质量分 93
经典图像分类论文阅读与解析
何如千泷
这个作者很懒,什么都没留下…
展开
-
【论文阅读】Vision Transformer
在计算机视觉领域中,多数算法都是保持CNN整体结构不变,在CNN中增加attention模块或者使用attention模块替换CNN中的某些部分。有研究者提出,没有必要总是依赖于CNN。因此,作者提出ViT算法,仅仅使用Transformer结构也能够在图像分类任务中表现很好。受到NLP领域中Transformer成功应用的启发,ViT算法中尝试将标准的Transformer结构直接应用于图像,并对整个图像分类流程进行最少的修改。原创 2022-09-05 17:26:11 · 4297 阅读 · 2 评论 -
【论文阅读】GhostNet详解及代码实现
Ghost Net1. Introduction上图是由ResNet-50中的第一个残差块生成的某些中间特征图的可视化。从图中我们可以看出,这里面有很多特征图是具有高度相似性的(在图中分别用不同的颜色示意),换句话说,就是存在许多的冗余特征图。所以从另一个角度想,我们是不是可以利用一系列的线性变化,以很小的代价生成许多能从原始特征发掘所需信息的“幻影”特征图呢?这个便是整篇文章的核心思想。2. ApproachGhost module:先通过conv生成一些特征图然后对生成的特征图进行ch原创 2021-10-31 15:44:42 · 14955 阅读 · 0 评论 -
【论文阅读】Shuffle Net系列【V1—V2】
1. ShuffleNet V11.1 Abstract我们提出了一个极其效率的CNN架构——ShuffleNet,其专为计算能力非常有限的移动设备设计。这个新的架构利用了两个新的操作:pointwise group conv和channel shuffle,并大大降低计算成本,同时确保准确性。1.2 Approach1.2.1 Channel Shuffle for Group Convolutions在微型网络结构中, 由于 1×1 卷积计算代价很高,在计算资源有限的情况下特征图的通道数就会受原创 2021-10-31 15:19:07 · 1057 阅读 · 4 评论 -
【论文阅读】Mobile Net 系列【V1—V3】
1. MobileNet V11.1 Abstract我们提出了一类用于移动和嵌入式视觉应用程序的高效模——MobileNet,此模型使用深度可分离卷积来构建轻量级深度神经网络。我们还介绍了两个超参数:用于控制模型的延迟(模型运行时间)和准确率1.2 Introduction在计算机视觉中,目前存在的一般趋势是制造更深更复杂的网络以实现更高的准确性。但是,在现实世界中的应用程序中,需要在有限的平台上以低延迟的方式实现识别任务。最近出现的许多方法只是关注模型的大小,而没有考虑速度,主要通过压缩预训练原创 2021-10-30 17:03:10 · 2894 阅读 · 0 评论 -
【论文阅读】AlexNet网络结构及其代码复现
AlexNet网络1. AlexNet论文解析1.1 Abstract此神经网络由5个卷积层(其中一些是最大池化层)和3个全连接层组成。为了减少全连接层中的过拟合,采用了dropout方法,此方法在实验中被证明非常有效。在ILSVRC-2012比赛中,top-5 test error rate : 15.3% <第二名 26.2%>。1.2 Details of learning1. 数据增强从256*256的图像随机提取224*224的图像,并进行水平翻转,这使得了训练数据增加的原创 2021-04-17 19:46:03 · 1621 阅读 · 7 评论 -
【论文阅读】VggNet网络结构及代码复现
1. VGGNet网络论文详解1. Abstract:本文的主要贡献:使用非常小的(3*3)卷积核(感受野思想)的架构来增加网络的深度,从而提高图形识别的准确性。并在ImageNet Challenge 2014 中的Localization Task获得第一名,Classification Task获得第二名。2. ConvNet 配置:网络层结构的设计灵感来源于Flexible, high performance convolutional neural networks for image c原创 2021-04-23 21:15:52 · 877 阅读 · 1 评论 -
【论文阅读】GoogLeNet网络结构详解及代码复现
1. GoogLeNet论文详解Abstract:提出了GoogLeNet网络结构——22层,此设计允许在保证计算预算不变的前提下,增加网络的深度和宽度,这个网络结构是基于Hebbian原则和多尺度处理,并且在ILSVRC 2014中的分类任务中获得第一名。对于大型数据集,最近的趋势是增加层数和每一层的尺寸,同时使用dropout来解决过拟合问题层尺寸的增大意味着需要更大数量的参数,这会使得网络更容易过拟合,尤其是对于数据集小的情况下层深度的增加会大大增加计算资源的使用,尤其是卷积层的权重为0时原创 2021-05-04 20:44:57 · 3570 阅读 · 5 评论 -
【论文阅读】ResNet网络结构详解及代码复现
1. ResNet论文详解1.1. Introduction一般网络越深,特征就越丰富,模型效果也就越好。在深度重要的驱动下,出现了2个问题:梯度消失和梯度爆炸:梯度消失:误差梯度<1,当网络层数增多时,最终求的梯度会以指数形式衰减梯度爆炸:误差梯度>1,当网络层数增多时,最终求的梯度会以指数形式增加解决方式:Xavier 初始化、Kaiming 初始化等Batch Normalization退化问题:在适当深度的模型中添加更多的层会导致更高的训练误.原创 2021-05-14 19:45:16 · 5157 阅读 · 6 评论 -
【论文阅读】DenseNet网络结构详解及代码复现
1. DenseNet论文详解Abstract:如果在靠近输入和靠近输出层之间包含更短的连接,那么卷积神经网络可以很大程度上更深,更准确和高效地进行训练。根据这一结果,我们提出了DenseNet(密集卷积网络): 对于每一层,所有前一层地特征图作为输入,而这一层地特征图用作所有后续层地输入。优势有:缓解了梯度消失问题,加强了特征传播,鼓励特征复用,并很大程度上减小了参数的数量。1.1. Introduction随着卷积神经网络的不断加深,出现了一个问题——关于输入或梯度在经过很多层到达网络的终点(.原创 2021-05-15 20:04:34 · 13806 阅读 · 12 评论