特征提取网络
like_study_cat
这个作者很懒,什么都没留下…
展开
-
2020-09-07
# Copyright 2018 The AI boy xsr-ai. All Rights Reserved.## Licensed under the Apache License, Version 2.0 (the "License");# you may not use this file except in compliance with the License.# You may obtain a copy of the License at## http://www.apache.原创 2020-09-07 14:03:38 · 1462 阅读 · 0 评论 -
学习网站
智云视图 https://github.com/zeusees原创 2020-08-13 17:59:43 · 94 阅读 · 0 评论 -
ShuffleNet v2
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design论文指出单纯的乘加运算FLOPs并不能完全表示模型的运算速度,访存开销memory access cost(MAC)也应该考虑进去。并基于这,设计出了轻量化网络ShuffleNet V2。提出了4个改进的原则:(1)单个模块的输入输出通道相同,可以最小化访存开销(MAC)c1:输入通道数c2:输出通道数h,w:输入feature .原创 2020-08-13 15:02:37 · 160 阅读 · 0 评论 -
轻量级网络ShuffleNet v1
ShuffleNet paperShuffleNet是旷视科技提出的一种计算高效的CNN模型,其和MobileNet和SqueezeNet等一样主要是想应用在移动端。所以,ShuffleNet的设计目标也是如何利用有限的计算资源来达到最好的模型精度,这需要很好地在速度和精度之间做平衡。ShuffleNet的核心是采用了两种操作:pointwise group convolution和channel shuffle,这在保持精度的同时大大降低了模型的计算量。目前移动端CNN模型主要设计思路主要是两个方面:转载 2020-08-13 12:26:55 · 237 阅读 · 0 评论 -
Group Convolution分组卷积
目录写在前面 Convolution VS Group Convolution Group Convolution的用途 参考写在前面Group Convolution分组卷积,最早见于AlexNet——2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构如下:Convolution VS Group Convolution在介绍Group Convolution前,先回顾下常规卷积是怎么.原创 2020-08-13 11:16:04 · 356 阅读 · 0 评论 -
ShuffleNet V1
ShuffleNet: AnExtremely Efficient Convolutional Neural Network for Mobile Devices这篇文章在mobileNet的基础上主要做了1点改进:mobileNet只做了3*3卷积的deepwiseconvolution,而1*1的卷积还是传统的卷积方式,还存在大量冗余,ShuffleNet则在此基础上,将1*1卷积做了shuffle和group操作,实现了channel shuffle 和pointwise group conv原创 2020-08-13 09:57:53 · 164 阅读 · 0 评论 -
MobileNet V2 - 再探
MobileNetV2: Inverted Residuals and Linear Bottlenecks主要贡献有2点:1,提出了逆向的残差结构(Inverted residuals)由于MobileNetV2版本使用了残差结构,和resnet的残差结构有异曲同工之妙,源于resnet,却和而不同。由于Resnet没有使用depthwise conv,所以,在进入pointwise conv之前的特征通道数是比较多的,所以,残差模块中使用了0.25倍的降维。而MobileNet v.原创 2020-08-13 09:49:01 · 296 阅读 · 0 评论 -
Xception
Xception: DeepLearning with Depthwise Separable Convolutions这篇文章主要在Inception V3的基础上提出了Xception(Extreme Inception),基本思想就是通道分离式卷积(depthwise separable convolution operation)。最终实现了(1)模型参数有微量的减少,减少量很少,具体如下,(2)精度较Inception V3有提高,ImageNET上的精度如下,先说...原创 2020-08-11 18:01:28 · 142 阅读 · 0 评论 -
ResNeXt
论文:Aggregated Residual Transformations for Deep Neural Networks论文链接:https://arxiv.org/abs/1611.05431PyTorch代码:https://github.com/miraclewkf/ResNeXt-PyTorch这是一篇发表在2017CVPR上的论文,介绍了ResNet网络的升级版:ResNeXt。下面介绍我看这篇论文时候做的笔记,和大家一起分享该模型。作者提出 ResNeXt 的主..转载 2020-08-11 17:53:33 · 116 阅读 · 0 评论 -
MobileNet V2
一、论文:https://arxiv.org/abs/18非官方Caffe代码:https://github.com/shicai/MobileNet-Caffe二、论文理解MobileNet V2 是对 MobileNet V1 的改进,同样是一个轻量级卷积神经网络。1)基础理论--深度可分离卷积(DepthWise操作)标准的卷积过程可以看上图,一个2×2的卷积核在卷积时,对应图像区域中的所有通道均被同时考虑,问题在于,为什么一定要同时考虑图像区域和通道?我们为什么不能把通道转载 2020-08-11 17:21:27 · 144 阅读 · 0 评论 -
efficientNet的原理及实现
efficientNet的原理及实现efficientNet是对前几个网络的复合,例如wideResnet和Resnet,将网络宽度和网络深度以及图像像素大小进行一个复合融合,然后达到一个比较好的网络。一,摘要卷积神经网络目前的发展一般都是固定资源进行发展,如果计算能力足够,网络还会继续加深。在这篇文章中作者系统地研究了模型缩放,并发现仔细地平衡网络的深度、宽度和分辨率可以带来更好的性能。基于这一观察结果,作者提出了一种新的标度方法,使用简单而高效的复合系数来均匀地标度深度/宽度/分辨率的所有维转载 2020-08-06 11:37:45 · 1925 阅读 · 0 评论 -
Mobilenet v1
深度可分离卷积将普通卷积分为结果相似的两个步骤第一步:第二步:采用Pointwise卷积的优势:Mobile net网络结构:(relu6)再度压缩的比较:原创 2020-08-07 13:45:52 · 102 阅读 · 0 评论 -
GoogleNetV1~V3
Inception v1的网络,主要提出了Inceptionmodule结构(1*1,3*3,5*5的conv和3*3的pooling组合在一起),最大的亮点就是从NIN(Network in Network)中引入了1*1 conv,结构如下图所示,代表作GoogleNet假设previous layer的大小为28*28*192,则,a的weights大小,1*1*192*64+3*3*192*128+5*5*192*32=387072a的输出featuremap大小,28*28*64+原创 2020-08-11 14:39:59 · 251 阅读 · 0 评论 -
SENet
前言在深度学习领域,CNN分类网络的发展对其它计算机视觉任务如目标检测和语义分割都起到至关重要的作用,因为检测和分割模型通常是构建在CNN分类网络(称为backbone)之上。提到CNN分类网络,我们所熟知的是VGG,ResNet,Inception,DenseNet等模型,它们的效果已经被充分验证,而且被广泛应用在各类计算机视觉任务上。这里我们介绍一篇CVPR2017的文章SENet,它赢得了最后一届ImageNet 2017竞赛分类任务的冠军。重要的一点是SENet思路很简单,很容易扩展在已有网络结转载 2020-08-11 10:37:42 · 533 阅读 · 0 评论