图像分类
文章平均质量分 68
图像分类
kui9702
这个作者很懒,什么都没留下…
展开
-
SE Module
SE ModuleSE 结构是由momenta胡杰等人发表的ImageNet2017 冠军模型(插件)SE 结构的作用:特征重标定。对每个特征通道设置权重激励,抑制对当前任务无用的特征SE 结构的主要组成部分由池化层、全连接层(或者替换为卷积层)、ReLu组成squeeze。将空间维度进行特征压缩,将CxHxW压缩为Cx1x1,表征着1x1能获取全局的感受野。excitation。目的是生成每个特征通道的权重,这个权重作为后续表示每个特征通道的重要性(参数代表每个特征通道的重要性),si原创 2022-04-25 22:05:46 · 1676 阅读 · 0 评论 -
Resnet50 pytorch复现
Resnet50 pytorch复现之前复现过Resnet18,今天复现与Resnet网络结构稍有不同的Resnet50Resnet50的基本结构是1x1卷积->3x3卷积->1x1卷积。而每一组卷积是这样的结构:卷积->BN->RELU组合而成。如果所示,上面左边的为Resnet18,34的残差结构,右边的是Resnet50 101 152的残差结构。从图中可以看出Resnet50 的 1x1的卷积->3x3卷积->1x1卷积结构中,第一个1x1的卷积是原创 2022-03-28 22:10:55 · 2173 阅读 · 3 评论 -
Resnet论文翻译
原论文 https://arxiv.org/pdf/1512.03385.pdf深度残差学习用于图像识别何恺明 等更深的神经网络更难训练。我们提出了一个残差学习框架,以简化比以前使用的更深入的网络的训练。我们明确地将层重新表示为参考层输入学习残差函数,而不是学习未引用的函数。我们提供了全面的经验证据,表明这些残差网络更容易优化,并且可以从显着增加的深度中获得准确性。在 ImageNet 数据集上,我们评估深度高达 152 层的残差网络——比 VGG 网络 [41] 深 8 倍,但仍然具有.翻译 2022-01-04 23:45:44 · 325 阅读 · 0 评论 -
手写数字识别_MNIST数据集
前言MNIST数据集由250个不同的人手写而成,总共有7000张手写数据集。其中训练集有6000张,测试集有1000张。每张图片大小为28x28,或者说是由28x28个像素组成。这章打算用一个简单的模型进行手写字符识别。MNIST下载MNIST数据集的方式有很多,可以去MNIST官网下载,也可以用函数api下载官网下载网页为:http://yann.lecun.com/exdb/mnist/,复制链接打开之后可以在网页中看到以下信息,下图圈起来的就是数据集。本文采用的是通过pytorch原创 2021-12-14 18:03:19 · 10810 阅读 · 0 评论 -
mobilenetv2
前言MobileNet 是轻量级卷积神经网络系列,现在已经有v1、v2、 v3.MobileNet v2 是对Mobile v1 的改进。本章利用MobileNet v2对Cifar10做分类任务部分网络结构说明MobileNet v1采用了depth-wise seperable convolution(深度可分离卷积)减少运算量激活层用了RELU6MobileNet v2与MobileNet v1一样,采用深度可分离卷积,采用Depth-wise和Point-wise提取特.原创 2022-03-13 17:49:53 · 3561 阅读 · 0 评论 -
CSP Darknet53
CSP Darknet53代码复现:这里的代码参考CSDN@Bubbliiiing在之前yolo v3的实战篇中,我们了解到yolo v3 使用的backbone是Darknet53,而今天要展现的是yolo v4的backbone CSP Darknet53。他们有什么不同呢?激活函数的改变,之前Darknet53使用的是LeakyReLU,而CSP Darknet53使用的是Mish。LeakyReLU的图像LeakyReLU是分段函数,当x>0时, f(x) = x原创 2022-04-19 23:05:18 · 9788 阅读 · 0 评论 -
Inception v3
Inception v32014年ImageNet竞赛的冠军Inception-v1,又名GoogLeNet。Inception v1的特点:模块增加网络的宽度。将模型的的输入经过几种卷积的计算,以concat方式连接。Inception v2,在v1版本上改进2个方向:引入BN层模型在计算过程中,会先对输入进行归一化Inception v3,在之前的基础上增加:将大卷积分解成小卷积,使得在感受野不变的情况下,减少参数的计算量max pooling层在下采样会导致信息损失大,于是设原创 2022-03-07 22:27:58 · 5901 阅读 · 0 评论 -
vgg16
引言 ⽜津⼤学的视觉⼏何组(visualgeometry group)92的VGG⽹络,采用块状结构,为后续的神经网络提供模板。 与AlexNet、LeNet⼀样,VGG⽹络可以分为两部分:第⼀部分主要由卷积层和汇聚层组成,第⼆部分由全连接层组成。 本节 我们走进vgg16VGG Net原论文https://blog.csdn.net/Jwenxue/article/details/89207067实际上我们在使用较多的vgg16,是属于上图D。整理之后的网络原创 2021-12-30 16:59:26 · 1760 阅读 · 0 评论 -
resnet18
前言在前篇vgg16之后,无法成功训练vgg16,发现是自己电脑可用的显存太低了,遂放弃。在2015 ILSVRC&COCO比赛中,何恺明团队提出的Resnet网络斩获第一,这是一个经典的网络。李沐说过,如果要学习一个CNN网络,一定是残差网络Resnet。与VGG相比,Resnet则更加出色,为后续的研究做下铺垫这是Resnet论文翻译参考链接:https://blog.csdn.net/weixin_42858575/article/details/93305238在之前的神经原创 2022-01-02 17:04:01 · 4708 阅读 · 0 评论