图像分类
文章平均质量分 89
Aiolei
学习永无止境
展开
-
EfficientNet网络
EfficientNet 用神经网络结构搜索技术 NAS(Neural Architecture Search)来搜索图像输入分辨率、网络深度、网络宽度(channel 数)三个参数,进行合理化配置,平衡这三个参数来提升网络的性能。原创 2022-10-13 16:05:31 · 387 阅读 · 1 评论 -
ResNet网络及代码
残差网络是由来自Microsoft Research的4位学者提出的卷积神经网络,在2015年的ImageNet大规模视觉识别竞赛(ILSVRC)中获得了图像分类和物体识别的第一名,获得COCO数据集中目标检测第一名,图像分割第一名。残差网络的特点是容易优化,并且能够通过增加相当的深度来提高准确率。其内部的残差块使用了跳跃连接,缓解了在深度神经网络中增加深度带来的梯度消失问题。 当更深的网络能够开始收敛时,暴露了一个退化问题:随着网络深度的增加,准确率达到饱和然后迅速下降。意外的是,这种退化不是由过原创 2020-11-27 16:10:30 · 1476 阅读 · 1 评论 -
GoogLeNet网络及代码
GoogLeNet是2014年Christian Szegedy提出的一种全新的深度学习结构,inception的提出则从另一种角度来提升训练结果:能更高效的利用计算资源,在相同的计算量下能提取到更多的特征,从而提升训练结果。GoogleNet在2014年由Google团队提出,斩获当年ImageNet竞赛中Classification Task (分类任务)第一名。GoogLeNet亮点(1)引入了Inception结构( 融合不同尺度的特征信息)(2)使用1*1的卷积核进行降维以及映射处理(原创 2020-11-27 16:04:17 · 1930 阅读 · 1 评论 -
VGGNet网络及代码
VGGNet 是牛津大学计算机视觉组(Visual Geometry Group)和 GoogleDeepMind 公司的研究员一起研发的的深度卷积神经网络。VGG模型是2014年ILSVRC竞赛的第二名(第一名是GoogLeNet),但是VGG模型在多个迁移学习任务中的表现要优于googLeNet。而且,从图像中提取CNN特征,VGG模型是首选算法。它的缺点在于,参数量有140M之多,需要更大的存储空间。 VGG模型通过反复的堆叠3*3的小型卷积核和2*2的最大池化层,成功的构建了16~19层深的原创 2020-11-27 16:01:23 · 886 阅读 · 0 评论 -
AlexNet网络及代码
AlexNet是2012年ImageNet竞赛冠军获得者Hinton和他的学生Alex Krizhevsky设计的。这对于当时的传统的机器学习分类算法而言,已经相当的出色。自此之后,更多的更深的神经网络被提出。AlexNet特点(1)成功使用ReLU作为CNN的激活函数:基于ReLU的深度卷积网络比基于tanh和sigmoid的网络训练快数倍。(2)提出LRU标准化:一般在ReLU之后会做一个normalization,LRN全称为Local Response Normalization,即局部响原创 2020-11-27 15:51:58 · 835 阅读 · 1 评论 -
LeNet网络及代码
LeNet-5诞生于1994年,是最早的卷积神经网络之一。 LeNet-5是一个较简单的卷积神经网络,但包含了深度学习基本模块:卷积层、池化层、全连接层。由图可知:LeNet-5由7层CNN(不包含输入层)组成,输入的图像经过卷积 — 池化 — 卷积 — 池化 — 3层全连接操作。并且输入图像的尺寸统一归一化为32*32。具体每一层的图像的 C、H、W 变化见代码注释。注意:Pytorch tensor 的通道排序:[batch, channels, height, width]输入的原始图原创 2020-11-27 15:42:13 · 834 阅读 · 1 评论 -
卷积神经网络基础
目录1. 卷积层2. 激活函数3. 池化层(下采样层)4. 全连接层 卷积神经网络是近年发展起来,并引起广泛重视的一种高效识别方法。20世纪60年代,Hubel 和 Wiesel 在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络(Convolutional Neural Networks, CNN)。现在,CNN 已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始原创 2022-03-25 16:44:10 · 3513 阅读 · 0 评论