MM赶完,回来继续更论文了哈哈哈哈
一、研究背景
1.Deepfake detection模型存在统计学偏差,并对特定人群作出不公平的判断。
2.Fair loss function可以解决上述不公平检测问题,但在跨域测试时会失效。
3.许多工作致力于通过增加注释来解决Deepfake数据集中存在的数据偏差,但相关的公平性泛化问题一直没有得到有效解决。
二、研究动机
1.通过对比,发现公平性方法DAW-FDD和公平性损失DAW-FDD(UFC)在跨数据集测试时均会失效。
2.人种特征通常与面部特征紧密相关,移除人种相关特征 r ( X ) D r(X)_D r(X