基础回顾
文章平均质量分 68
基础回顾专栏
欣婷
这个作者很懒,什么都没留下…
展开
-
YOLO学习1.0-预热
置信度阈值是预测框与标记框的比值IOU 是否大于某一阈值,从而决定检测模型的预测结果是否是 Positive 样本。1.two-stage(两阶段):Faster-Rcnn,Mask-Rcnn。P-R图:mAP越接近与1越好。在不同阈值中综合考虑P和R值。2.one-stage(单阶段):YOLO系列。1.速度非常快,适合实时检测任务。一个cnn网络做一个回归任务。1.Precision:精度。3.Accuracy:准确率。2.Recall:召回率。6.mAP:平均精度均值。一.深度学习经典检测方法。原创 2023-07-07 15:30:50 · 90 阅读 · 0 评论 -
YOLO学习1.2-YOLOV1中部分术语含义和作用
在全连接层中,每个神经元都与上一层的所有输入神经元相连,并且每个连接都有一个对应的权重,用于调整输入的重要性。在卷积层中,每个滤波器的参数是可以学习的,这意味着卷积层可以自动学习到输入数据中的有用特征。通过反向传播算法(Backpropagation),卷积层可以根据损失函数的梯度来更新滤波器的参数,以使卷积层能够更好地提取输入数据中与任务相关的特征。总而言之,权重矩阵在神经网络中扮演着重要的角色,它表示连接的权重和模型参数,用于学习和优化模型,并决定了信号在神经网络中的传递和转换方式。原创 2023-07-08 18:55:17 · 236 阅读 · 0 评论 -
YOLO学习1.3-CNN重温
2. 池化层(Pooling Layer):池化层用于降低特征图的空间尺寸,减少参数数量和计算量,并增加模型的平移不变性。总的来说,CNN通过多个卷积层和池化层的堆叠,逐渐提取出输入数据的抽象特征表示,并通过全连接层进行最终的分类或回归。它通过共享权重和局部感知野的设计,能够有效地处理高维输入数据,并在处理图像等任务时具备一定的平移不变性和位置不变性。4. 全连接层(Fully Connected Layer):全连接层将特征图展平为一维向量,并通过全连接操作连接到输出层,用于进行最终的分类或回归任务。原创 2023-07-08 19:17:02 · 72 阅读 · 0 评论 -
YOLO学习1.5-感受野
较小的感受野可以用于提取低级特征和细节,较大的感受野可以用于提取高级特征和全局信息。通过合理设计网络结构和层级,可以在不同层次上融合不同大小的感受野,以获得更全面和有效的特征表示。而较大的感受野可以捕捉到图像的全局上下文信息,适用于处理整体结构和语义信息。感受野的大小取决于网络的结构和层级。在卷积层中,感受野的大小取决于卷积核的大小和步幅(stride)。较大的卷积核和较大的步幅会导致较大的感受野。Q1:既然两次3*3卷积后得到一个5*5感受野的特征图,为什么不用一个5*5的卷积核进行一次卷积。原创 2023-07-09 20:27:51 · 263 阅读 · 0 评论 -
YOLO学习1.6-YOLOV2中部分术语含义和作用
收敛的意义是系统稳定,就是模型的某一个权重参数发生小的改变的时候,模型输出结果不会发生强烈变化,导致系统崩溃,也就是所谓的发散。1>聚类:聚类使把相似的数据划分到一起,具体划分的适合不关心这一类的标签,目标是把相似的数据聚合到一起,聚集是一种无监督学习方法。在说模型收敛的时候,一般指的是训练、验证损失曲线没有大的波动,而且随着训练轮数不断增加,波动依然可以在一定容忍范围内。需要注意的是,在进行降采样时,会丢失一些细节和信息,因此需要根据具体的应用场景和需求来权衡降采样的效果和损失。θ)相对贡献的超参数。原创 2023-07-10 11:31:27 · 298 阅读 · 0 评论 -
深度学习1.0-BJTU-基础知识
记录一下最近学习深度学习的笔记,课程是BJTU暑期课程,在b站可以搜到,文中图片大多来源此视频,希望可以通过学习该课程学习到更多的深度学习知识,可能因为本人知识储备还是较少,看了一遍老师的课还有很多不懂得地方,因此本篇大多数为PPT得CV,在后续学习过程会对此章节深入理解。原创 2023-07-19 16:17:16 · 269 阅读 · 0 评论 -
Transformer1.0-预热
不是图像中所有的区域对任务的贡献都是同样重要的,只有任务相关的区域才是需要关心的,比如分类任务的主体,空间注意力模型就是寻找网络中最重要的部位进行处理。自注意力机制是注意力机制的一种,解决神经网络接收的输入是很多大小不一的向量,并且不同向量之间又一定的关系,但实际训练的时候无法发挥这些输入之间的关系导致模型训练结果效果极差(机器翻译序列到序列,语义分析等),针对全连接神经网络对于多个相关的输入无法建立起相关性问题,可以通过自注意力机制解决,实际上让机器注意到整个输入中不同部分之间的相关性。原创 2023-08-07 12:53:18 · 153 阅读 · 0 评论