![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
图像分类
文章平均质量分 89
图像分类
忧郁小薯条_
这个作者很懒,什么都没留下…
展开
-
图像分类学习笔记(七)——MobileNet
一、MobileNetV1一、MobileNetV1传统的神经网络,内存需求大、运算量大,导致无法在移动设备以及嵌入式设备上运行。之前的VGG16模型权重大小大概有490M,ResNet模型权重大小大概有644M。MobileNet网络是由google团队在2017年提出的,专注于移动端或者嵌入式设备中轻量级CNN网络。相比于传统卷积神经网络,在准确率小幅降低的前提下大大减少模型参数与运算量(相比VGG16准确率减少了0.9%,但模型参数只有VGG的1/32)(一)要点。原创 2023-08-31 13:53:11 · 3207 阅读 · 0 评论 -
图像分类学习笔记(六)——ResNeXt
ResNeXt是ResNet的小幅升级,更新了block左边(ResNet的block/50/101/152层):对于输入通道为256的特征矩阵,首先使用64个1×1的卷积核进行降维,再通过64个3×3的卷积核处理,再通过256个1×1的卷积核升维输出,将输出与输入进行相加,得到最终的输出。使用右边的结构替代左边的结构:下面解释。(三)组卷积 (Group Convolution)原创 2023-08-28 09:50:15 · 418 阅读 · 0 评论 -
图像分类学习笔记(五)——ResNet
通过最大池化下采样得到的输出是[56,56,64],而所需的shape为[56,56,256],此时conv2_x第一层需要使用虚线残差结构,但仅改变特征矩阵的深度,不改变宽高。:假设每一层的误差梯度是小于1的数,反向传播过程中每向前传播一层,都要乘以一个小于1的误差梯度。:使我们的一批(Batch)数据所对应的feature map(特征矩阵)每一个通道所对应的维度满足均值为0,方差为1的分布规律。:假设每一层的误差梯度是大于1的数,反向传播过程中每向前传播一层,都要乘以一个大于1的误差梯度。原创 2023-05-26 16:31:15 · 238 阅读 · 0 评论 -
图像分类学习笔记(四)——GooLeNet
GooLeNet在2014年由Google团队提出,斩获当年ImageNet竞赛中Classification Task(分类任务)第一名。GoogLeNet在专注于加深网络结构的同时,引入了,在某种意义上更直接的增加了网络的深度。GoogLeNet一共22层,没有全连接层。原创 2023-05-13 11:36:14 · 621 阅读 · 0 评论 -
图像分类学习笔记(三)——VGG
假设输入特征矩阵的大小是9×9×1,经过卷积层(一个卷积核大小为3×3,步距为2)得到的特征矩阵的大小是4×4×1(N = (9 - 3 + 0) / 2 + 1 = 4),再经过最大池化层(池化核大小为2×2,步距为2)得到输出特征矩阵的大小是2×2×1(N = (4 - 2 + 0) / 2 + 1 = 2)相比于AlexNet的改进:通过堆叠多个3×3的卷积核代替大尺度的卷积核(可以通过堆叠2个3×3的卷积核代替5×5的卷积核,堆叠3个3×3的卷积核代替7×7的卷积核)原创 2023-05-11 15:51:52 · 226 阅读 · 0 评论 -
图像分类学习笔记(二)——AlexNet
AlexNet是一个经典的,由Alex Krizhevsky等人在2012年提出。是计算机视觉领域里一个十分重要的比赛,AlexNet是2012年ISLVRC 2012竞赛的冠军,分类准确率由传统的70%+提升到80%+。也是在那年之后,深度学习开始迅速发展。训练集:1,281,167张已标注图片验证集:50,000张已标注图片测试集:100,000张未标注图片AlexNet共有8层网络结构,第1、2、5层使用较小的卷积核(11x11、5x5和3x3),并采用ReLU激活函数;原创 2023-05-11 11:15:44 · 698 阅读 · 0 评论 -
图像分类学习笔记(一)——LeNet
数据加载器中的每个小批次的样本数量通常会影响模型的训练效果。如果batch_size设置过小,每个小批次的样本数量太少,可能会导致模型欠拟合;如果batch_size设置过大,每个小批次的样本数量太多,可能会导致模型过拟合。因此,在进行模型训练时,需要根据实际情况适当调整batch_size的大小。使用iter()函数将val_loader转换为一个可迭代的对象val_data_iter使用next()函数从val_data_iter中获取下一个小批次的数据。原创 2023-05-09 10:55:17 · 144 阅读 · 0 评论