深度学习入门
文章平均质量分 82
猛男技术控
苦心钻研!
勇于实践!
不负韶华!
展开
-
梯度下降系列博客:1、梯度下降算法基础
维基百科正式定义短语梯度下降如下:在数学中,梯度下降是一种用于寻找可微函数的局部最小值的一阶迭代优化算法。梯度下降是一种机器学习算法,它迭代运行以找到其参数的最佳值。该算法在更新参数值时考虑函数的梯度、用户定义的学习率和初始参数值。单位向量:单位向量是幅度为 1 的向量。我们如何找到向量的长度或大小?考虑以下向量 u。矢量的长度然后计算为其所有分量平方和的平方根。函数**f(x, y)在向量 u(单位向量)方向上的导数由函数梯度与单位向量 u的****点积**给出。原创 2023-02-05 22:01:17 · 407 阅读 · 0 评论 -
EfficientNet v1 v2
MBConv模块和EfficientNetV1中是一样的,其中模块名称后跟的4,6表示expansion ratio,SE0.25表示使用了SE模块,0.25表示SE模块中第一个全连接层的节点个数是输入该MBConv模块特征矩阵channels的。,当n=1时,不升维),一个kxk的Depthwise Conv卷积,k主要有3x3和5x5两种情况,一个SE模块,然后接一个1x1的普通卷积进行降维作用,再加一个Droupout,最后再进行特征图融合。这样就实现了注意力。原创 2023-02-01 14:50:30 · 684 阅读 · 0 评论 -
Mobilenet v1-v3
作者认为,当前模型是基于 V2 模型中的倒残差结构和相应的变体(如下图)。使用1×1 卷积来构建最后层,这样可以便于拓展到更高维的特征空间。这样做的好处是,在预测时,有更多更丰富的特征来满足预测,但是同时也引入了额外的计算成本与延时。所以,需要改进的地方就是要保留高维特征的前提下减小延时。首先,还是将 1×1 层放在到最终平均池之后。这样的话最后一组特征现在不是 7x7(下图 V2 结构红框),而是以 1x1 计算(下图 V3 结构黄框)。这样的好处是,在计算和延迟方面,特征的计算几乎是免费的。原创 2023-01-31 17:08:07 · 568 阅读 · 0 评论 -
终于弄懂了 非极大抑制 NMS
NMS的作用就是有效地剔除目标检测结果中多余的检测框,保留最合适的检测框。以YOLOv5为例,yolov5模型的输入三个feature map的集合,加上batch的维度,也就是三维张量,即batchp0∗p0p1∗p1p2∗p2∗34confclsnum,模型输出的为相对于调整图片的xywh,然后后面就要进入后处理阶段。具体来看,模型输入为640∗640时,推理输出结果在20∗2040∗4080∗80。原创 2023-01-12 10:18:43 · 259 阅读 · 0 评论 -
YOLOv2-yolo9000-batter,faster,stronger 论文精读&解析
yolo9000-batter,faster,stronger我们提出了一种新的方法来利用大量的图像分类数据,来扩大当前检测系统的范围。我们的方法使用目标分类的分层视图,允许我们将不同的数据集组合在一起。我们还提出了一种联合训练算法,使我们能够在检测和分类数据上训练目标检测器。我们的方法利用有标签的检测图像来学习精确定位物体,同时使用分类图像来增加特征表达和鲁棒性。YOLOv2舍弃了Dropout,卷积后全部加入BN层,批归一化会获得收敛性的显著改善,同时消除了对其他形式正则化的需求。通原创 2022-12-05 21:42:27 · 541 阅读 · 0 评论 -
yolov1 论文理解 - You Only Look Once-Unified, Real-Time Object Detection-统一的实时目标检测
这是yolov1的模型,他将图像划分成了7x7个网格,每个网格负责预测两个边界框,每个边界框都有5个信息$x、y、w、h、confidence $ ,(这个confidence是该区域有目标框的概率),共预测20个类,每个类都有一个置信度信息(这个confidence是这个框是猫是狗的概率),所以最终输出为。网格强化了边界框预测中的空间多样性。合适的阈值下可能只留下一个框,当然某些阈值下可能会保留更多的框,阈值的设置应该是根据目标任务设置的,越高的阈值(越不容易置零,即越宽容)会检测出越多的目标。原创 2022-12-05 21:41:47 · 762 阅读 · 0 评论 -
yolo后处理操作-如何获取我们想要的目标框及置信度?
yolo后处理就是模型的输出进行处理,得到我们想要的坐标框的xywhxywhxywh以及confidenceconfidenceconfidence学习笔记这是yolov1的模型,他将图像划分成了7x7个网格,每个网格负责预测两个边界框,每个边界框都有5个信息$x、y、w、h、confidence $ ,(这个confidence是该区域有目标框的概率),共预测20个类,每个类都有一个置信度信息(这个confidence是这个框是猫是狗的概率),所以最终输出为 7∗7∗307*7*307∗7∗30然后每原创 2022-12-05 14:15:00 · 2217 阅读 · 0 评论 -
浅显易懂正则化-猛男技术控
针对过拟合的原因,应该如何抑制过拟合呢?原创 2022-11-05 08:30:00 · 221 阅读 · 0 评论 -
YOLOV5、V7 训练格式转换-训练自己的数据集-猛男技术控
不用创建文件夹,只需把我代码中的图片和xml文件夹修改成自己的即可原创 2022-11-04 14:33:40 · 1180 阅读 · 1 评论 -
你觉得神经网络初始化权重应该设为多少呢?-猛男技术控
通常设定什么样的权重初始值,经常关系到神经网络收敛的快慢以及学习能否成功。原创 2022-11-04 15:22:54 · 740 阅读 · 0 评论 -
偏差与方差、过拟合与欠拟合-猛男技术控
如果你的算法含有一个精心设计的正则化方法,通常可以安全地加大模型的规模,而不用担心增加过拟合风险。例如,一般情况下,你可以通过增加神经网络的规模大小,并调整正则化方法去减少偏差,而不会明显的增加方差。目前,在大部分针对学习算法的改进中,有一些能够减少偏差,但代价是增大方差,反之亦然。它在训练集上表现得很差,因此有较高的偏差,而它在开发集上表现更差,因此方差同样较高。但如果最优错误率是 14%,那么 15% 的训练错误率表现告诉我们,在分类器的偏差方面几乎没有改进的余地。则偏差为 15%,方差为 15%。原创 2022-10-25 16:09:27 · 1013 阅读 · 0 评论 -
图片分类-数据增强
import osimport PIL.Image as Imageimport shutilfrom torchvision import transformsfrom numpy.random import randint,randomdef zengqiang(root_path): for img in os.listdir(root_path): i = 0. if img[-3:] in ["jpg", "png", "JPG","bmp"]:原创 2021-04-24 21:24:24 · 279 阅读 · 1 评论 -
深度学习之图像识别基础篇——神经元与感知机
本系列文章是自己学了一段时间深度学习并且做出一定东西后再回头打数学理论基础而写,旨在巩固自己的基础,帮助小白快速入门。这都是自己弄懂之后才写的,完全弄懂那些数学公式也是比较难的,希望看这篇文章的小伙伴一定要看懂下面的代码。有不懂得可以直接提出,若有错误,当立即改正,若不有侵权,当立即删除。原创 2020-08-29 12:58:38 · 2580 阅读 · 0 评论 -
小白视角来看传说中的卷积神经网络
从小白的视角来看卷积神经网络笔记比较详细,但肯定也有很多地方写的不清楚或者不正确,还望指正如果你和我一样是小白,希望对你有所帮助原创 2020-05-14 17:10:56 · 2388 阅读 · 5 评论 -
卷积神经网络的几种典型架构
imageNet lelNet-5 AlexNet VGGNet gooogleNet ResNet原创 2020-05-06 17:47:49 · 2411 阅读 · 11 评论 -
三种方法详解深度学习GPU环境搭配(基于Windows)
三种方法详解深度学习GPU环境搭配(基于Windows,keras)终于配置好了,真的想吐,环境太恶心了GPU这个坑我已经淌过了,别再进了,真又浪费时间又浪费心情。原创 2020-04-27 22:01:16 · 2263 阅读 · 16 评论