利用决策树测试歧视性,主要了解了建树的过程,提出了两种减少歧视性的方法:
1.构建一个无歧视的决策树
方法一:调整决策为正的概率
方法二:为每个敏感属性训练一个模型并对其进行平衡
方法三:增加潜在变量L,利用期望最大化优化模型EM
2.对已经建好的树进行叶子修剪或重新贴标
评价指标是准确率和歧视率,通过比较不同的建树方法,找出非歧视性约束条件下的决策树构造,特别是重新贴标,提出了一种基于背包问题的重新贴标算法,在实验评估中取得了良好的效果。通过给出更低的歧视分数和保持较高的准确度,它被证明比其他歧视意识技术表现更好。此外,当我们只考虑准确性时,我们的方法在训练集是可分辨的和测试集是非可分辨的情况下是最好的选择
决策树的优点:
直观,便于理解,小规模数据集有效
决策树的缺点:
处理连续变量不好
类别较多时,错误增加的比较快