知识点
文章平均质量分 97
划水的鱼儿
目标检测、目标跟踪、reid不做了,学java了
展开
-
YOLO-----关于正负样本、Loss、IOU、怎样去平衡正负样本的问题?
关于正负样本、Loss、IOU、怎样去平衡正负样本的问题 1、关于正负样本2、Loss计算3、IOU、GIOU、DIOU、CIOU4、怎样去平衡正负样本的问题?先整理一下anchor的概念常用的anchor定义----Faster R-CNN 定义三组纵横比ratio = [0.5,1,2]和三种尺度scale = [8,16,32],可以组合处9种不同的形状和大小的边框。----YOLO则不是使用预设的纵横比和尺度的组合,而是使用k-means聚类的方法,从训练集中学习得到不同的Anchoryo原创 2021-04-15 22:44:02 · 11478 阅读 · 9 评论 -
卡尔曼滤波——预测和更新
。。。接着写原创 2020-12-01 22:50:52 · 4012 阅读 · 0 评论 -
转自:机器学习实验室----深度学习两大基础Tricks:Dropout和BN详解
感觉总结的很好,转一哈学习自用,由于机器学习公众号没有链接所以发了原创,侵权删深度学习两大基础Tricks:Dropout和BN详解Dropoutdropout作为目前神经网络训练的一项必备技术,自从被Hinton提出以来,几乎是进行深度学习训练时的标配。就像做菜时必须加料酒一样,无论何时,大家在使用全连接层的时候都会习惯性的在后面加上一个dropout层。通常情况下,dropout被作为一种防止神经网络过拟合的正则化方法,对神经网络的泛化性能有很大的帮助。每个人都会用dropout,但你真的理解它吗原创 2020-10-29 11:23:46 · 240 阅读 · 0 评论 -
batch、batch_size、epoch、iteration傻傻分不清楚及举例说明
(1)epoch:1个epoch指用训练集中的全部样本训练一次(2)iteration:1次iteration即迭代1次,也就是用batch_size个样本训练一次。每一次迭代得到的结果都会被作为下一次迭代的初始值.(3)batch将数据集分成几个 batch,每一个batch数据的数量就是[batch size],在一个 epoch 中,batch 数和迭代数是相等的(3)batch_size:每批数据量的大小.用SGD的优化算法进行训练,也就是1 次iteration一起训练batch_.原创 2020-07-22 21:52:58 · 803 阅读 · 0 评论 -
常见的激活函数 sigmod Relu tanh LeakyRelu及复现代码
目录 1.激活函数的作用2.sigmod3.Relu4.tanh5.LeakyRelu1.激活函数的作用关于神经网络中的激活函数的作用,通常都是这样解释:如果不使用激活函数的话,神经网络的每层都只是做线性变换,多层输入叠加后也还是线性变换。因为线性模型的表达能力通常不够,所以这时候就体现了激活函数的作用了,激活函数可以引入非线性因素。在我认为,通俗来说,比如说原先的线性变换能解释类似左图的分类,而无法进行类似右边图像的这种分类2.sigmod表达式:几何图像:作用:它能够把输入的连续实原创 2020-07-21 21:01:45 · 4833 阅读 · 0 评论