loss
彩虹宇
这个作者很懒,什么都没留下…
展开
-
Softmax loss 之 Large Margin Softmax(L-softmax)
关于softmax、softmaxloss的详细介绍可见于:https://blog.csdn.net/u014380165/article/details/77284921 large margin softmax论文中说道,softmax+cross-entropy loss是CNNs中最为常见的代价组合,效果不错,但是没有对特征有区别的学习。所以论文基于它提出L-Softmax,强化特征的类内紧凑和类间疏离。 Softmax loss 1. 定义 Gamma公式展示 Γ(n)=(n−1)!∀n∈N\G原创 2020-09-28 11:25:05 · 1319 阅读 · 0 评论 -
local_loss
论文是关于目标检测的,针对两方面的问题: 1. 如何强化难样本 2. 极度不平衡的正负样本(目标检测中会有大量的负样本出现) 针对class imbalance,改进cross entropy loss,降低分类较好的样本的权重。focal loss集中解决:训练少量难样本,防止出现大量简单负样本覆盖的情况。 二、相关工作中问题 1. class imbalance one-stage的目标检测 在训练时面临巨大的类别样本不均衡的情况。这种不均衡造成问题: (1) 很多位置的训练是不充分的,这些位置里 简单原创 2020-09-25 11:27:20 · 932 阅读 · 0 评论