CNN- 分类
文章平均质量分 93
cdknight_happy
种一棵树最好的时间是十年前,其次是现在!
展开
-
RepVGG
论文:https://arxiv.org/pdf/2101.03697v3.pdf代码:https://github.com/DingXiaoH/RepVGGVGG式的推理模型,由3 * 3卷积块和ReLU激活函数组成。训练时用的是一个多分支的网络,然后通过结构re-parameter技术得到推理网络。因为用到了结构re-parameter,所以叫做RepVGG。1 简介复杂网络可以取得更高的识别精度,但是有如下缺点:复杂的多分支结构(ResNet中的残差直连通道、Inception中的多分支原创 2021-09-02 15:19:25 · 802 阅读 · 0 评论 -
CBN:Cross-Iteration Batch Normalization
论文:https://arxiv.org/abs/2002.05712代码:https://github.com/Howal/Cross-iterationBatchNormhttps://github.com/Howal/Cross-iterationBatchNorm/blob/master/mmdet/models/utils/CBN.py1 简介1.1 BNBN(Batch Normalization)在CNN的发展过程中起到了重要的作用,其主要是解决internel covariate原创 2020-08-14 18:54:11 · 464 阅读 · 0 评论 -
CBAM
论文:https://arxiv.org/pdf/1807.06521.pdf1 CBAM1.1 综述CBAM,Convolutional Block Attention Module,卷积块的注意力模块。即包含了时间注意力模块,也包含了空间注意力模型。时间注意力模块用于决定各滤波器的作用大小,空间注意力模块用于决定哪些图像位置包含我们感兴趣的目标。CBAM的输入是F∈RC×H×WF \in R^{C \times H \times W}F∈RC×H×W,先将输入和Mc∈RC×1×1M_c \in原创 2020-08-13 17:14:22 · 385 阅读 · 0 评论 -
Searching for MobileNetV3
论文:http://xxx.itp.ac.cn/abs/1905.02244?context=cspyTorch代码:https://github.com/xiaolai-sqlai/mobilenetv3原创 2020-05-14 16:30:43 · 365 阅读 · 0 评论 -
Deformable Convolutional Networks
论文:http://xxx.itp.ac.cn/abs/1703.062111 简介计算机视觉中的一个关键挑战是如何适应目标的几何变换,如尺度、姿态、视角和部分形变。一般来说,有两种解决方法,第一个是构建包含了想学习的形变的足够大的训练数据集,这样的数据集可以通过对现有数据集进行增广(如进行仿射变换)得到,从包含了形变的数据集中可以学习到鲁棒的特征表示,但是代价是大量的训练数据和复杂的模型结构...原创 2020-04-27 16:54:53 · 385 阅读 · 0 评论 -
Spatial Transformer Networks
论文:https://arxiv.org/abs/1506.02025参考:https://blog.csdn.net/xholes/article/details/80457210https://blog.csdn.net/shaoxiaohu1/article/details/51809605原创 2020-04-19 19:56:08 · 324 阅读 · 0 评论 -
Bag of Tricks for Image Classification with Convolutional Neural Networks
论文:http://xxx.itp.ac.cn/abs/1812.01187代码:https://github.com/dmlc/gluon-cv0 摘要近期,图像分类领域的改善主要是训练过程的改进,包括对数据增强及优化算法的改进。但是很多论文里并没有详细介绍改进细节,或者干脆只有在源代码中才可以看到具体的改进细节。本文,作者通过分类准确率验证了这些改进的有效性。实验结果表明,通过组合使用这...原创 2020-03-27 19:21:34 · 474 阅读 · 0 评论 -
ctc loss
1 理论1.1 用途ctc 可用于未对齐的序列输入的识别上,可完成语音识别及车牌字符识别任务。1.2 原理ctc出自论文:https://www.cs.toronto.edu/~graves/icml_2006.pdf个人觉得这篇文章https://blog.csdn.net/luodongri/article/details/77005948是理论讲解最清晰的,主要是符号比较少。但这篇...原创 2020-03-24 15:51:02 · 313 阅读 · 0 评论 -
Efficient Net
论文:https://arxiv.org/abs/1905.11946?context=stat.ML原创 2020-02-03 17:51:35 · 899 阅读 · 0 评论 -
SENet
论文:https://arxiv.org/abs/1709.01507原创 2019-12-18 17:09:16 · 405 阅读 · 1 评论 -
蒸馏网络 Distilling the Knowledge in a Neural Network
论文:https://arxiv.org/abs/1503.02531原创 2019-04-20 12:31:26 · 1557 阅读 · 0 评论 -
ShuffleNet V2:Practical Guidelines for Efficient CNN Architecture Design
论文:https://arxiv.org/abs/1807.11164原创 2019-02-11 17:20:26 · 1233 阅读 · 0 评论 -
MobileNetV2: Inverted Residuals and Linear Bottlenecks
文章:https://arxiv.org/abs/1801.04381原创 2019-02-11 11:51:47 · 1014 阅读 · 0 评论 -
ShuffleNet V1
论文:https://arxiv.org/abs/1707.01083原创 2019-02-09 22:07:21 · 1798 阅读 · 0 评论 -
ResNext
Aggregated ´residual transformations for deep neural networks.原创 2019-02-09 17:25:36 · 3869 阅读 · 0 评论 -
ZFNet论文学习
论文名称《Visualizing and Understanding Convolutional Networks 》1.意义 该论文是在AlexNet基础上进行了一些细节的改动,网络结构上并没有太大的突破。该论文最大的贡献在于通过使用可视化技术揭示了神经网络各层到底在干什么,起到了什么作用。原创 2017-12-20 16:59:49 · 20757 阅读 · 4 评论 -
VGG-Net论文学习
论文题目《VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION》。官网地址 http://www.robots.ox.ac.uk/~vgg/software/vgg_face/摘要本文章重点研究了卷积神经网络的深度对图像分类准确率的影响,作者使用更小的卷积核(3*3),构建了更深的16-19层的分类网络,取原创 2018-02-03 15:22:54 · 4709 阅读 · 0 评论 -
ResNet
论文题目《Deep Residual Learning for Image Recognition》摘要更深的网络往往更难以训练,作者提出了残差学习的框架减轻训练深度网络的难度。作者训练出了152层的神经网络,计算量小于VGG-Net,但网络层数是其8倍。在ILSVRC2015分类任务中,以3.75% top-5 error获得分类第一,同时在ImageNet检测、定位、COCO检测、COCO分割上原创 2018-02-11 15:58:45 · 466 阅读 · 0 评论 -
GoogleNet系列论文学习
[v1] Going Deeper with Convolutions, 6.67% test error, http://arxiv.org/abs/1409.4842 [v2] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift, 4.8% test erro...原创 2018-02-13 11:30:48 · 9803 阅读 · 0 评论 -
Identity Mappings in Deep Residual Networks
论文名称《Identity Mappings in Deep Residual Networks》 代码:https://github.com/KaimingHe/resnet-1k-layers摘要深度残差神经网络表现出了很好的分类准确率和很好的收敛特性。本文是残差网络的作者在原始resnet的基础上分析了残差块背后的数学原理,表明了无论在前向还是反向过程中,信号可以在任意一对残差块之间进行传递原创 2018-01-07 12:41:31 · 3297 阅读 · 0 评论 -
NIN
论文核心思想如下图所示:原创 2018-03-04 17:48:59 · 539 阅读 · 0 评论 -
DenseNet
摘要最近的研究成果证明只要在网络靠近输入层和输出层之间建立short connections,就可以高效地训练一个足够深、足够精确的CNN网络。本文中,作者基于上述观察提出了DenseNet,该网络中任意两个层之间都包含short connection,所以DenseNet共包含了L(L+1)/2个direct connections。对于每一个网络层,它前面所有的层的feature maps都是它原创 2018-04-05 13:30:50 · 2049 阅读 · 0 评论 -
SqueezeNet
文章:https://arxiv.org/abs/1602.07360代码:https://github.com/DeepScale/SqueezeNetSQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE1 摘要相同准确率的CNN模型,更小的模型具有三点优势:分布式训...原创 2019-02-01 15:39:35 · 537 阅读 · 0 评论 -
MobileNets V1
文章:https://arxiv.org/abs/1704.04861代码:https://github.com/tensorflow/models/tree/master/research/slim/netshttps://github.com/Zehaos/MobileNetMobileNets: Efficient Convolutional Neural Networks for M...原创 2019-02-02 11:45:33 · 862 阅读 · 0 评论 -
Xception
论文:https://arxiv.org/abs/1610.02357代码:https://keras.io/applications/#xcepti1 摘要本文中作者介绍了Inception结构可以看作是介于普通卷积操作和深度可分卷积的中间。深度可分卷积由逐层卷积和逐点卷积组成。深度可分卷积可以理解成具有最多层的Inception结构。作者使用深度可分卷积代替Inception结构形成了本...原创 2019-02-07 11:29:26 · 1760 阅读 · 0 评论 -
squeezeNext
论文:https://arxiv.org/abs/1803.10615原创 2019-02-08 18:28:27 · 697 阅读 · 0 评论 -
AlexNet论文学习
论文名称《ImageNet Classification with Deep Convolutional Neural Networks 》1.意义 AlexNet论文标志着深度学习进入了一个新的阶段。2.数据集及数据预处理 ImageNet数据集包含22000类共15,000,000副标注的图像。 ILSVRC比赛使用ImageNet数据集的子集,一共是10...原创 2017-12-17 10:51:33 · 358 阅读 · 0 评论