Few-Shot Class-Incremental Learning via Relation Knowledge Distillation 閱讀筆記

這篇論文來自 2021 AAAI
屬於小樣本增量學習

 

Relation原因

具體而言,IKD 方法僅約束原始網絡的響應與在新任務中學習到的單個示例的響應之間的差異。 結果,對於許多人工智能應用(例如圖像分類和類增量學習)很重要的點之間的相互關係不可避免地被忽略了。

顯然,樣本之間存在大量的相關信息。 例如,貓通常更像狗,而不是汽車。 這種關係可以作為學習順序任務的有用先驗。 因此,它提供了一種更有效的方法,不僅可以約束特徵空間中樣本的位置,還可以約束它們在few shot class incremetnal learning問題中的關係。

構建ERG, examplar挑選

Reason:

However, the randomly-selected exemplars can not well represent data of different classes from the old network in the FSCIL scenarios. 

設定每個

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值