公平性机器学习中基于分类间隔的歧视样本发现和消除算法

发表于中国科学:信息科学

主要是提出了提出了一种基于分类间隔的加权方法用于处理二分类任务中的歧视现象, 并在 demographic parity 和 equalized odds 公平性判定准则上实现分类公平。通过发现和消除原始数据集中的歧视样本寻找生成公平数据集的方法。

论文中总结了机器学习公平性的研究,大致归为以下 3 大类:

第 1 类方法通过数据预处理消除歧视样本. 主要策略是通过修改训练集来平衡分类公平性和准确性, 如修改样本属性、 修改样本标签、 修改训练集大小;
第 2 类方法在模型的训练过程中消除歧视. 主要策略是在目标函数中增加新的公平性约束条件、加入正则化项或者通过属性映射方法将原始属性向量映射为新的公平表示;

第 3 类方法通过模型后处理消除歧视. 主要策略是先预训练一个分类器, 然后在考虑分类公平性的情况下移动分类器模型的决策边界。

这篇论文基于数据预处理的方法, 主要通过修改歧视样本的标签来平衡分类公平性和准确性, 研究在预定义敏感属性前提下带有公平性约束的二分类任务。论文中方法基于聚类假设 “相似的样本应该获得相似的预测结果”。

创新点:本文提出了基于分类间隔的歧视样本发现和消除算法, 该方法既考虑对标签预测有重要影响的属性, 又关注其他可能会对标签预测产生潜在影响的属性。关键在于采用了一种基于分类间隔的加权方法。

思路: 首先从训练集 S 中筛选出需要进行歧视性检验的目标集 D , 以便更高效地寻找训练集中的歧视样本, 并减少由于修改样本标签而对分类器精度造成的损失; 接着, 基于预先给定的二值敏感属性 A 将目标集 D 划分为保护集 D+和非保护集 D−. 例如,假设数据集中敏感属性 A 是性别, 则敏感属性值为男性的样本被分到保护集 D+中, 敏感属性值为女性的样本被分到非保护集 D−中; 然后寻找两个集合中的歧视样本, 并且为了保证公平,本文从保护集和非保护集中选取相同数量的歧视样本进行修正 (见 3.3 小节); 最后利用修正后的训练
集训练分类器模型, 并在测试集上验证分类公平性和预测准确度.

所以,主要分为三个步骤:一是寻找目标集,即可能带有歧视性的样本集合;二是寻找歧视样本,即通过计算比例判断出是否是歧视性样本;三是修改歧视性样本。

主要框架:

加权距离度量:

投影和评估:

算法:

数据集:

结果:

总结:本文提出了一种基于分类间隔的加权方法来解决由数据集造成的歧视问题. 基于聚类假设 “相似的样本应该获得相似的预测结果”, 通过属性加权更合理地选择近邻样本, 并基于最大间隔原理将样本投影后选定目标集的方法来更准确地寻找歧视样本, 从而降低修改标签带来的精度损失. 本文所提出的歧视性样本消除算法在多个分类器中都有很好的效果, 并且适用于多个公平性准则.在训练期间给定敏感属性的前提下, 本文的方法在分类公平性和预测准确度之间获得了很好的平衡. 但在某些场景中, 无法确定哪个属性或属性的组合是敏感的. 我们在后续工作中会更关注敏感属性的寻找.

 

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值