![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
yuki_0502
这个作者很懒,什么都没留下…
展开
-
Focal Loss理解
Focal Loss理解 1. 总述 Focal loss主要是为了解决one-stage目标检测中正负样本比例严重失衡的问题。该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。 2. 损失函数形式 Focal loss是在交叉熵损失函数基础上进行的修改,首先回顾二分类交叉上损失: 是经过激活函数的输出,所以在0-1之间。可见普通的交叉熵对于正样本而言,输出概率越大损失越小。对于负样本而言,输出概率越小则损失越小。此时的损失函数在大量简单样本的迭代过程中比较缓.转载 2020-10-09 18:39:22 · 256 阅读 · 0 评论 -
损失函数总结
损失函数对于机器学习算法来说是至关重要的一环,大部分机器学习算法都是通过梯度下降来进行学习的。下降的目标就是让损失函数达到最小值。 回归损失函数: 回归的损失函数比较少,常见的有MSE,MAE,RMSE,也比较好理解,就是预测值和真实值直接的差距最小。 分类损失函数: 分类损失函数的种类比较多,常见的分类算法,logistic regression, SVM, adaboost log损失函数(逻辑回归): 对数损失函数的标准形式为: 在二分类的情况下,可以简化为: 指数损失函数(adaboost)原创 2020-12-01 16:47:35 · 124 阅读 · 0 评论