![](https://img-blog.csdnimg.cn/032d12ea64e849e3aee93e4bb567351e.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
神经网络精讲与实战
文章平均质量分 96
这篇专栏汇集了经典的主干网络,包括论文的翻译,网络的讲解,以及实战。是你入门的首选!
优惠券已抵扣
余额抵扣
还需支付
¥49.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
AI浩
2022年博客之星Top8,2021年博客之星Top6,博客专家,华为云云享专家,十佳博主,阿里云专家博主,拥有多项发明专利并参与过国家重大专项,拥有丰富的开发经验。注重理论与实践的结合,让AI学起来不再枯燥。如果大家在看文章的时候,发现了文章的错误,烦请指出,我会及时纠正。
展开
-
专栏目录总览
这篇文章,是对专栏的总目录,方便大家查看文章。这个专栏我计划整理一些经典常用的主干网络模型,对其进行讲解和实战。由浅入深,逐步增加深度,让大家更容易接受。原创 2022-12-31 06:23:18 · 412 阅读 · 0 评论 -
第二十四篇 DenseNet——模型讲解
在深度学习网络中,随着网络深度的加深,梯度消失问题会愈加明显,目前很多论文都针对这个问题提出了解决方案,比如ResNet,Highway Networks,Stochastic depth,FractalNets等,尽管这些算法的网络结构有差别,但是核心都在于使用shotcut将浅层和深层链接起来。DenseNet有个缺点,就是特别的消耗显存,不过在后期的模型中修改了,但是这种连接方式和ResNet相比,显存的占用还是很明显。近几年,显卡的技术飞速发展,显存提升很大,所以这个缺点可以忽略!原创 2023-03-16 18:27:13 · 543 阅读 · 0 评论 -
第二十三篇 DenseNet——论文翻译
最近的工作表明,如果卷积网络在靠近输入的层和靠近输出的层之间包含更短的连接,则它们可以更深入、更准确、更有效地进行训练。在本文中,我们接受了这一观察并介绍了密集卷积网络 (DenseNet),它以前馈方式将每一层连接到其他每一层。而具有 L 层的传统卷积网络有 L 个连接——每层与其后续层之间有一个连接——而我们的网络有LL122LL1个直接连接。对于每一层,所有先前层的特征图用作输入,其自身的特征图用作所有后续层的输入。原创 2023-03-02 05:40:11 · 1249 阅读 · 0 评论 -
第二十二篇 ResNet实战
到这里,这篇文章就写完了,通过这篇文章,你能学到:1、如何训练模型?2、如何推理?3、如何读取数据集、处理数据集?4、如何保存权重文件和整个模型文件?5、如何使用评价指标,如ACC、ReCall等指标评价模型。6、如何使用matplotlib.pyplot绘制acc和loss曲线图?7、如何使用余弦退火学习率调整策略调整学习率?8、如何使用Mixup,CutMix,CutOut等数据增强?9、如何使用Pytorch自带的增强方法。原创 2023-03-01 09:51:49 · 465 阅读 · 0 评论 -
第二十一篇 数据增强
这篇文章是对数据增强的总结。通过对数据增强可以使训练集更丰富,从而让模型更具泛化能力,减轻模型的过拟合。比较常用的几何变换方法主要有:翻转,旋转,裁剪,缩放,平移,抖动。值得注意的是,在某些具体的任务中,当使用这些方法时需要主要标签数据的变化,如目标检测中若使用翻转,则需要将gt框进行相应的调整。比较常用的像素变换方法有:加椒盐噪声,高斯噪声,进行高斯模糊,调整HSV对比度,调节亮度,饱和度,直方图均衡化,调整白平衡等。还有一些特殊的增强手段,如Cutout,Mixup,CutMix等方法。原创 2023-02-22 22:16:32 · 1270 阅读 · 1 评论 -
第二十篇 ResNet——模型讲解
ResNet(Residual Neural Network)由微软研究院的Kaiming He等四名华人提出,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常明显。模型的创新点在于提出残差学习的思想,在网络中增加了直连通道,将原始输入信息直接传到后面的层中,如下图所示:。原创 2023-02-22 09:32:00 · 1057 阅读 · 0 评论 -
第十九篇 ResNet——论文翻译
更深的神经网络更难训练。我们提出了一个残差学习框架,以简化比以前使用的网络更深的网络的训练。我们明确地将层重新表述为参考层输入学习残差函数,而不是学习未引用的函数。我们提供了全面的经验证据,表明这些残差网络更容易优化,并且可以从显着增加的深度中获得准确性。在 ImageNet 数据集上,我们评估深度高达 152 层的残差网络——比 VGG 网络 [41] 深 8 倍,但仍然具有较低的复杂性。这些残差网络的集合在 ImageNet 测试集上实现了 3.57% 的错误率。原创 2023-02-13 06:19:00 · 1268 阅读 · 1 评论 -
第十八篇 InceptionV3实战
到这里,这篇文章就写完了,通过这篇文章,你能学到:1、如何训练模型?2、如何推理?3、如何读取数据集、处理数据集?4、如何保存权重文件和整个模型文件?5、如何使用评价指标,如ACC、ReCall等指标评价模型。6、如何使用matplotlib.pyplot绘制acc和loss曲线图?7、如何使用余弦退火学习率调整策略调整学习率?有没有发现,我们的实战代码正在逐渐的丰富起来。我打算通过这种逐步增加难度的方式,让大家更容易接受!这篇文章,我们增加了学习率调整策略。原创 2023-02-11 07:14:19 · 447 阅读 · 2 评论 -
第十七篇 PyTorch学习率调整策略
PyTorch学习率调整策略通过torch.optim.lr_scheduler接口实现。PyTorch提供的学习率调整策略分为三大类,分别是有序调整:等间隔调整(Step),按需调整学习率(MultiStep),指数衰减调整(Exponential)和 余弦退火CosineAnnealing。自适应调整:自适应调整学习率 ReduceLROnPlateau。自定义调整:自定义调整学习率 LambdaLR。为不同参数组设定不同学习率调整策略。原创 2023-02-08 13:26:30 · 648 阅读 · 0 评论 -
第十六篇 Inception V2、Inception V3、Inception V4模型详解
在前面的文章,我详解了GoogLeNet的网络结构,想必大家对GoogLeNet的Inception结构非常的了解了,GoogLeNet共有四个版本,我们在前面学习到的GoogLeNet也就是Inception V1。接下来,这篇文章将详解V2、V3、V4的网络结构。原创 2023-02-07 06:36:09 · 764 阅读 · 0 评论 -
第十五篇 Inception V4——论文翻译
摘要摘要1 简介2 相关工作3 体系架构的选择3.1 纯Inception块3.2 剩余起始块3.3 残差的缩放4 训练方法5 实验结果6 结论摘要。原创 2023-02-06 06:07:04 · 1169 阅读 · 1 评论 -
第十四篇 Inception V3——论文翻译
卷积网络是最先进的计算机视觉解决方案的核心,适用于各种各样的任务。自2014年以来,非常深度的卷积网络开始成为主流,在各种基准测试中产生了巨大的收益。尽管增加的模型大小和计算成本倾向于转化为大多数任务的即时质量提高(只要为训练提供足够的标记数据),计算效率和低参数计数仍然是各种用例(如移动视觉和大数据场景)的启用因素。在这里,我们正在探索扩大网络的方法,目的是通过适当的因式卷积和积极的正则化尽可能有效地利用增加的计算。原创 2023-02-04 07:19:26 · 484 阅读 · 1 评论 -
第十三篇 Inception V2——论文翻译
深度学习极大地提高了视觉、语音和许多其他领域的技术水平。随机梯度下降 (SGD) 已被证明是训练深度网络的有效方法,并且诸如动量 (Sutskever et al., 2013) 和 Adagrad (Duchi et al., 2011) 等 SGD 变体已被用于实现 艺术表演。SGD 优化网络的参数ΘΘΘ,从而最小化损失ΘargminΘ1N∑i1NℓxiΘΘargΘminN1i1∑NℓxiΘ其中x1Nx1。原创 2023-02-04 05:12:31 · 382 阅读 · 0 评论 -
第十二篇 GoogLeNet——网络实战
到这里,这篇文章就写完了,通过这篇文章,你能学到:1、如何训练模型?2、如何推理?3、如何读取数据集、处理数据集?4、如何使用余弦退火调整学习率?5、如何保存权重文件和整个模型文件?6、如何使用评价指标,如ACC、ReCall等指标评价模型。7、如何使用matplotlib.pyplot绘制acc和loss曲线图?有没有发现,我们的实战代码正在逐渐的丰富起来。我打算通过这种逐步增加难度的方式,让大家更容易接受!2 划分训练集和测试集🐇4.9 训练函数。原创 2023-02-01 21:52:51 · 1327 阅读 · 0 评论 -
第十一篇 绘图matplotlib.pyplot的使用
Matplotlib 是一个用于在 Python 中绘制数组的 2D 图形库。虽然它起源于模仿 MATLAB 图形命令,但它独立于 MATLAB,可以以 Pythonic 和面向对象的方式使用。虽然 Matplotlib 主要是在纯 Python 中编写的,但它大量使用 NumPy 和其他扩展代码,即使对于大型数组也能提供良好的性能。matplotlib.pyplot是一个命令风格函数的集合,使matplotlib的机制更像MATLAB。原创 2023-02-01 18:01:34 · 481 阅读 · 1 评论 -
第十篇 GoogLeNet——模型精讲
GoogLeNet作为2014年ILSVRC在分类任务上的冠军,以6.65%的错误率力压VGGNet等模型,在分类的准确率上面相比过去两届冠军ZFNet和AlexNet都有很大的提升。从名字GoogLeNet可以知道这是来自谷歌工程师所设计的网络结构,而名字中GoogLeNet更是致敬了LeNet。GoogLeNet中最核心的部分是其内部子网络结构Inception,该结构灵感来源于NIN,至今已经经历了四次版本迭代(Inception_v1-4)。下表是Inception_v1-4提出的时间表In原创 2023-01-29 19:06:45 · 1010 阅读 · 1 评论 -
第九篇 GoogLeNet——论文翻译
我们在ImageNet大规模视觉识别挑战赛2014(ILSVRC14)上提出了一种代号为Inception的深度卷积神经网络结构,并在分类和检测上取得了新的最好结果。这个架构的主要特点是提高了网络内部计算资源的利用率。通过精心的手工设计,我们在增加了网络深度和广度的同时保持了计算预算不变。为了优化质量,架构的设计以赫布理论和多尺度处理直觉为基础。我们在ILSVRC14提交中应用的一个特例被称为GoogLeNet,一个22层的深度网络,其质量在分类和检测的背景下进行了评估。原创 2023-01-23 06:46:07 · 841 阅读 · 0 评论 -
第八篇 VGGNet——网络实战
摘要。原创 2023-01-22 08:09:50 · 754 阅读 · 1 评论 -
第七篇 图像分类的评价指标
一般情况来说,单一评分标准无法完全评估一个机器学习模型。只用good和bad偏离真实场景去评估某个模型,都是一种欠妥的评估方式。单标签分类的评价指标有:混淆矩阵,准确率(Accuracy),精确率(Precision),召回率(Recall),F1-score,ROC曲线和AUC。原创 2023-01-21 15:41:42 · 1447 阅读 · 0 评论 -
第六篇 VGGNet——模型精讲
VGGNet是通过简单堆叠卷积构建网络的巅峰之作,在后面的模型就是ResNet这种残差网络的时代。VGGNet是由牛津大学视觉几何小组(Visual Geometry Group, VGG)提出的一种深层卷积网络结构,他们以7.32%的错误率赢得了2014年ILSVRC分类任务的亚军(冠军由GoogLeNet以6.65%的错误率夺得)和25.32%的错误率夺得定位任务(Localization)的第一名(GoogLeNet错误率为26.44%),网络名称VGGNet取自该小组名缩写。原创 2023-01-12 10:31:52 · 1675 阅读 · 0 评论 -
第五篇 VGGNet——论文翻译
摘要。原创 2023-01-10 21:28:52 · 643 阅读 · 0 评论 -
第四篇 AlexNet——网络实战
在前面的文章我介绍了AlexNet的网络结构和数据集的制作,这篇文章我将和大家一起完成AlexNet模型的实战。数据集选用上篇制作的数据集,模型用Pytorh自带的AlexNet。在这篇文章中,我尽量的简化代码,只保留最基本的逻辑,让每一个初学者能够看明白。通过这篇文章你能学到:1、如何训练模型?2、如何推理?3、如何读取数据集、处理数据集?4、如何使用余弦退火调整学习率?5、如何保存权重文件和整个模型文件?原创 2023-01-10 13:43:53 · 652 阅读 · 1 评论 -
第三篇 制作数据集
如果有不对的地方,还请大家指出!原创 2023-01-09 07:03:58 · 884 阅读 · 0 评论 -
第二篇 AlexNet——模型精讲
摘要。原创 2022-12-31 10:20:00 · 486 阅读 · 0 评论 -
第一篇 AlexNet——论文翻译
目前的目标识别方法主要使用机器学习方法。为了提高它们的性能,我们可以收集更大的数据集,学习更强大的模型,并使用更好的技术来防止过拟合。直到最近,带标签图像的数据集都相对较小,只有数万张图像(例如NORB [16], Caltech-101/256[8,9]和CIFAR-10/100[12])。在这种规模的数据集上,简单的识别任务可以很好地解决,特别是当它们通过标签保持变换进行扩充时。例如,MNIST数字识别任务上目前最好的错误率(原创 2022-12-31 07:24:05 · 656 阅读 · 0 评论