ICCV‘21 Oral|拒绝调参,显著提点:检测分割任务的新损失函数RS Loss开源

​作者丨小马
编辑丨极市平台
本文原创首发于极市平台公众号,转载请获得授权并标明出处。

写在前面

目标检测和实例分割往往是一个multi-task的任务,其中包含了诸如classification,box regression和mask prediction等多个子任务,因此对于这类任务的损失函数往往是多个子任务的损失函数来加权求和,如下所示:

其中, L t k L_t^k Ltk是在第k个stage中第t个任务的损失函数(对于Faster R-CNN这类二阶段的目标检测器, K K K就等于2), λ t k \lambda_t^k λtk是一个用来决定每个stage中每个任务权重的超参数。

由于子任务和stage的多样性以及每个任务重要性的不平衡,在这类任务中,超参数的数量往往就会比较多。虽然加入这些超参数来平衡不同任务的重要性能够让模型获得更好的性能,但由于调参是非常耗时耗资源的,并且次优的超参数会导致模型次优的性能。

因此,在本文中,作者提出了一种用于目标检测和实例分割任务的Rank & Sort Loss(RSLoss),能够简化原来模型训练的复杂性,并能使得模型达到更好的performance。实验中,作者在7个模型中验证了RSLoss的有效性。

1. 论文和代码地址

Rank & Sort Loss for Object Detection and Instance Segmentation

论文地址:https://arxiv.org/abs/2107.11669

代码地址:https://github.com/kemaloksuz/RankSortLoss

2. Motivation

阅读全文:ICCV2021 Oral-RS Loss-拒绝调参、简化训练、显著提点,检测分割任务中的新损失函数——RS Loss

推荐大家关注极市平台公众号,每天都会更新最新的计算机视觉论文解读、综述盘点、调参攻略、面试经验等干货~

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值