AI公平性研究进展(2022)

  最近AI公平性方面出了不少新的研究成果,如有遗漏,欢迎补充↓↓↓↓
在这里插入图片描述

公平性提升

  1. MAAT: A Novel Ensemble Approach to Addressing Fairness and Performance Bugs for Machine Learning Software, FSE, 2022. 利用模型集成的方式获得公平的预测结果,单独训练高公平性的模型和高准确率的模型,并对它们的预测结果进行集成得到最终的预测,适用于多种模型以及多敏感属性的情况。
    在这里插入图片描述
  2. FairStyle: Debiasing StyleGAN2 with Style Channel Manipulations, ECCV, 2022. 图像生成模型中的偏见缓解,由于受训练集数据分布的影响,StyleGAN合成的图片数量在分布上存在不均衡的问题。对隐向量进行修改,设计channel-wise的tensor,使得生成的图片数量在指定敏感属性上接近均匀分布。
    在这里插入图片描述
  3. Discover and Mitigate Unknown Biases with Debiasing Alternate Networks, ECCV, 2022. 训练过程中,提升模型在未知敏感属性上的公平性。挑选目标任务标签相同的样本,判别器对样本进行二分类划分,使得划分后的组别公平性最差。借助对抗训练的思想,训练判别器寻找这种unknown的偏见,同时分类器最小化加权的交叉熵。
    在这里插入图片描述
  4. Training Data Debugging for the Fairness of Machine Learning Software, ICSE, 2022. 移除数据集proxy features中的偏见,敏感属性的proxy属性,它们带有敏感属性的信息,使用它们训练,模型会学习到偏见。识别敏感属性的proxy属性,将这些属性进行线性分解,在数据预处理的过程种去除掉与敏感属性相关的部分,从而提升公平性。
    在这里插入图片描述
  5. Pruning has a disparate impact on model accuracy, NeurIPS, 2022. 模型剪枝对不同类别的准确率影响不一样,一定程度的模型剪枝可以保证模型整体准确率不发生显著下降,但是某些类别样本准确率下降明显。
    在这里插入图片描述
    在这里插入图片描述
  6. FairGRAPE: Fairness-Aware GRAdient Pruning mEthod for Face Attribute Classification, ECCV, 2022. 模型剪枝引入了偏见,提出缓解偏见的算法,模型剪枝后,有些类别能较好的保持性能,而有些类别遭受了严重的性能损失。采用group-wise的贪心算法选择神经元,找出当前性能差异最大的类别,并保留最能提升性能的神经元。
    在这里插入图片描述
  7. FairVFL: A Fair Vertical Federated Learning Framework with Contrastive Adversarial Learning, NeurIPS, 2022. 纵向联邦学习中的纠偏机制,由拥有目标标签的参与方 𝑃 𝑡 𝑃^𝑡 Pt提供目标任务监督信息,由拥有敏感属性标签的参与方 𝑃 𝑎 𝑃^𝑎 Pa 负责公平性相关的信息移除。为了保护参与方的隐私,各方上传feature到聚合端,并且在debias前通过对比学习机制,对上传的feature进行映射,只保留和公平性属性a相关的信息。
    在这里插入图片描述
  8. On the Tradeoff Between Robustness and Fairness, NeurIPS, 2022. 对抗训练中的公平性问题,防御对抗样本过程中,使用更大的𝜀,对抗训练获得的平均鲁棒性越高,不同类别间鲁棒性的差异越大。提出了减少类别间鲁棒性差异的对抗训练算法,提升鲁棒性的同时,缓解偏差。
    在这里插入图片描述
  9. Gender Artifacts in Visual Datasets, arxiv, 2022. 发现gender artifacts广泛存在于图像数据集中(与gender相关的视觉信息),仅仅通过图片平均颜色、人物形状、背景等gender artifacts ,就能推测出图片中人的性别标签。gender artifacts难以进行去除,因此应该更多提出对于不同group鲁棒的算法而不是数据集纠偏算法。
    在这里插入图片描述
  10. Explanation-Guided Fairness Testing through Genetic Algorithm, ICSE, 2022. 利用可解释性方法和遗传算法生成测试用例,首先利用黑盒可解释性方法,获取样本每个特征重要性,选择敏感属性重要性高的样本作为初始值;以选定的样本作为初值,运行遗传算法改变非敏感属性,挑选出违反个体公平性的测试用例。
    在这里插入图片描述
  11. RULER: Discriminative and Iterative Adversarial Training for Deep Neural Network Fairness, ESEC/FSE, 2022. 利用对抗训练方法加速用例生成,并对模型纠偏,已有方法生成的反事实用例没有直接用于模型纠偏,并且生成用例耗时长、不一定是合法用例。提出基于对抗训练的用例生成方式,可以同时考虑多个敏感属性,有效提升模型公平性。
    在这里插入图片描述
    如果后面有新的会继续更新,最近签不到工作非常焦虑无心科研ing
  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值