Lifelong Unsupervised Domain Adaptive Person Re-identification with Coordinated Anti-forgetting and

该论文探讨了在CVPR2022中如何改进reservoirsampling方法,将其从instance-wise变为ID-wise,以保留更多ID信息。论文采用了MAML的元学习思想,将适应新数据和抗遗忘视为元训练和元测试,通过两个损失函数LAdap和LAntiF协调参数更新。此外,文中还指出了可能在计算Lkl时的错误,建议取oldbatch和newbatch的并集而非交集。
摘要由CSDN通过智能技术生成

CVPR2022

 

整体结构:

 

reservoir sampling 原本的方法:

 

K取值为8,memory的size为512

损失:

总共两部分loss:

 

实际上直接用来更新网络参数和分类器参数的loss:

这个是泰勒展开式的原本形式:

 

结果:

 

问题:

这篇论文为什么要用那个ID-wise的reservoir sampling?

这里,为了尽可能地保留不同的ID信息,将reservoir sampling算法从instance-wise修改为ID-wise。Memory队列长度是512,队列中的每一个元素是对应k个,如果有某个identity对应feature实际上不满k个,就用增强的feature填充。512是代表512个identity,所以是id-wise的。

  1. 这篇论文借鉴了MAML,那么是如何使用MAML的思想的?

论文借鉴了模型不可知论元学习(MAML),它将优化划分为元训练和元测试过程,这样模型就会沿着元训练和元测试之间的对齐方向更新。为了协调适应和抗遗忘,论文在每次参数更新迭代中将这两个任务(抗遗忘的任务和适应新数据的任务)看作元训练和元测试,而不是像MAML原来论文那样将样本分为元训练和元测试。假设最初的网络参数是θ,会在用LAdap上计算的梯度更新后的网络(网络参数为)计算LAntiF损失,和之前计算的LAdap求和作为最终更新网络的损失。

 

3、其中计算Lkl的时候,i属于old batch和new batch的交集,我觉得论文里可能写错了,应该属于并集,因为old batch和new batch是采样不同样本的,取交集意义不大。取并集的话就和Lrel保持一致了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值