一、研究背景
1.在大规模数据集上训练后,Deepfake Detection模型通常可以准确识别已知方法生成的伪造图像。
2.由于数据分布的差异,模型检测新技术生成的图片时准确率显著降低。
3.亟需一种能够应对多种潜在伪造方法的检测模型。
二、研究动机
1.难以获取足够新增伪造方法样本,依赖少量样本更新特征分布会造成过拟合。
2.伪造检测任务存在数据不平衡问题,新增伪造方法样本远少于已知伪造方法。
3.对齐新旧任务特征既有利于新任务学习又有利于先前知识保留。
三、研究目标
对新数据和旧数据之间的关系进行建模,基于少量新样本,快速将检测模型泛化到新的域。
四、技术路线
提出了增量学习框架,通过从少量的新样本中不断学习,提升Deepfake Detection模型的泛化性。
1.Learning Domain-invariant Representations
通过探究不同域样本对之间的语义关系,学习基于监督对比学习的域不变表示,减轻特征间的域差异,防止过拟合于不充足的新数据。
- 交叉熵损失