![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
图像分类
文章平均质量分 81
有关图像分类的一些算法的创新点
送自己一朵小红花
这个作者很懒,什么都没留下…
展开
-
no.10 EfficientNet V2
2 在我们实际的使用上,我们发现,虽然DW卷积理论上的计算量小,但是实际的速度没有想象的快。注意:这里的dropout层仅指Fused-MBConv模块以及MBConv模块中的dropout层,不包括最后全连接层前的dropout层。1 第一个问题就直接降低训练图像的尺寸,不仅能够加快训练速度,还能增大Batch,在no.1讲过,batch越大,训练效果越好。作者在v1中更关注准确率,参数数量以及FLOPs,但是理论计算量小代表不了推理速度,所以在v2中作者更关注模型的训练速度。原创 2023-03-25 21:41:21 · 166 阅读 · 0 评论 -
no.9 EfficientNet
---------------------------------------------接下来的内容属于代码内容注释--------------------------------------------------------------------------------------------------------------------------------------------------------------------------,且使用Swish激活函数。原创 2023-03-25 21:40:20 · 78 阅读 · 0 评论 -
no.8 ShuffleNet V1&V2
1 FLOPs只是间接指标,速度是最直接的评价指标,除了FLOPs以外,还应该考虑memory access cost (MAC)、并行等级(degree of parallelism),在相同的FLOPs下,并行度高的模型比并行度低的模型速度快,所以一味加宽网络宽度也是不行的,比如残差网络。注意:对于Stage2的第一个block,它的两个分支输出的channel并不等于输入channel,而是直接设置为指定输出的一半,比如2x版本,则指定为out-channel=122。,大约占到了总操作的93%。原创 2023-03-25 21:37:00 · 112 阅读 · 0 评论 -
no.7 MobileNet v1 & v2
在加载权重时,由于预训练模型和新的神经网络模型的结构可能不完全相同,因此设置 strict 参数为 False,表示可以忽略预训练模型中存在但是新的神经网络模型中不存在的权重,以及新的神经网络模型中存在但是预训练模型中不存在的权重。group注意一下,在pytorch里它的DW卷积,也是调用的nn.conv类,当group为1时,它是普通卷积,当group输出特征矩阵的深度的时候(也就是in_channel),它就是DW卷积。在模型定义中,这些可选参数可以用来替换模型中的默认层,从而实现模型结构的定制化。原创 2023-03-25 21:38:54 · 84 阅读 · 0 评论 -
no.6 ResNet网络结构 BN层以及迁移学习详解
(Layer2的生成就有讲究了),由于第一层maxpooling帮第一层提前缩小了size,而layer2没有这么好的资源,他需要自己做这件事,首先在medel中就写了:self.layer2 = self._make_layer(block, 128, blocks_num[1], stride=2),定义了stride=2,进入make layer函数之后,满足stride!获得coco数据集中目标检测,图像分割的第一名。但是残差网络很好的解决了这一问题,如下图,随着网络的加深,反而我们的错误率越低。原创 2023-03-25 21:36:20 · 630 阅读 · 0 评论 -
no.5 GoogLeNet
注意:GoogLeNet轻量化,但是修改困难,训练过程中需要两个辅助分类器,调整网络会麻烦,但是不可否认GoodLeNet在分类任务上是出色的。GoogLeNet在2014年由Google团队提出,斩获当年ImageNet竞赛中分类任务第一名。每个分支所得的特征矩阵高度和宽度必须相同,深度可以不同,最后按深度进行拼接。下图原文对辅助分类器的一个描述。3 添加两个辅助分类器帮助训练(下图中中间和右边的黄色部分)在(b)中1x1卷积是降维手段,以减少参数作为目标。4 丢弃全连接层,使用平均池化,减少模型参数。原创 2023-03-25 21:36:01 · 70 阅读 · 0 评论 -
no.4 VGG网络结构&感受野的计算
在卷积神经网络中,决定某一层输出结果中一个元素所对应的输入层的区域大小,被称作感受野(receptive field)。VGG在2014年由牛津大学著名研究组VGG(Vision Geometry Group)提出,斩获该年ImageNet竞赛中Localization Task(定位任务)第一名和Classification Task(分类任务)第二名。作者在6种VGG网络中尝试了不同的深度,比如 11层、13层、16层、19层。一般使用16层的网络结构(经典),包含13个卷积层3个全连接层。原创 2023-03-25 21:35:10 · 144 阅读 · 0 评论 -
no.3 AlexNet网络
教授号召,包含了超过1400万张全尺寸的有标记图片,大约有22000个类别的数据。也是在那年之后,更多的更深的神经网络被提出,比如优秀的vgg,GoogLeNet。根本原因是特征维度太多了,模型假设过于复杂,参数过多,训练数据过少,导致拟合的函数完美预测了训练集,但对新的数据(测试集)的预测能力结果差。下图是一开始图像训练的时候,蓝色线可以理解为计算机随便给定的一个线(没训练几轮,像人一样没有”见识“)。下图就是过拟合现象了,分类分的太过于标准,以至于传入一个新的点之后,在线的复杂下,不知怎么区分了。原创 2023-03-25 21:37:05 · 88 阅读 · 0 评论 -
no.2 LeNet介绍,以及pytorch,tensorflow v1与v2的介绍
主要集中在Tensorflow的Python Frontend层和layers,这些层是在TensorFlow底层算法引擎的基础之上,使用Python的封装,这导致1.0的使用比较麻烦,理解难度较大。但是,LeNet为卷积神经网络的发展奠定了基础,后续的深度学习研究在此基础上不断发展和完善,从而推动了深度学习技术的快速发展。此外,由于图的构建和执行都是在TensorFlow的计算图模式下进行的,因此可能需要特别注意一些细节,如变量的定义和使用等。由于TensorFlow图的构建需要额外的开销,因此。原创 2023-03-25 21:34:15 · 295 阅读 · 0 评论 -
no.1 有关卷积的基础知识
一些基本的有关深度学习的基础网络架构所需要的内容原创 2023-03-25 21:35:50 · 93 阅读 · 0 评论