ACE: Ally Complementary Experts for Solving Long-Tailed Recognition in One-Shot

ACE: Ally Complementary Experts for Solving Long-Tailed Recognition in One-Shot

[ICCV 2021][ORAL] ACE Github [多专家] [one-stage] [无预训练]

Motivation

同样针对长尾问题中的跷跷板问题,希望不以牺牲head acc来提升tail acc,希望在one-stage中同时提升head&tail acc。

Method

Method

  • 在大小不同的sub-set上训练多个expert,对于tail数据,会分给更多的model。
  • Loss包括一般的individual 分类loss,与RIDE类似;以及互补loss。
    • individual CE loss:
      ce loss

    • complement loss Lcom Loss:

        对于model未见过的image,预测值尽可能低。为了降低不干扰其他expert,抑制对未见过image的贡献。
        minimizes the logits of non-target categories for Ei so as to put down their effect.
      

Lcom Loss

  • 总体loss总体loss

总结

sub-set大小不同
在one-stage中,all,many, mid, few的acc均提升(但many相较于RIDE仍低)
这里解决跷跷板问题也是采用多专家,但是loss与RIDE不同,这里loss抑制了专家对不熟悉领域的effect,避免其瞎说,直接让他闭麦。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值