公平性(fariness)-新的突破点
推荐系统的公平性(fairness)正在成为推荐系统领域的一个新的突破点,目前对于推荐系统这种需要落地的应用,单纯的在模型领域取得准确率等指标的突破已经不是唯一的追求。虽然fancy的模型依然重要,但是越来越多的学者关注于模型在应用中的可解释性以及机器学习算法中性别偏见、种族歧视等不公平问题,而这也与社会学、人口学、经济学等不同学科产生了交叉。
我决定先选几篇前沿论文进行复现,然后再总结一下自己阅读该领域论文的初步心得和想法。
领域纵览
我首先通过Google Scholar查询了推荐系统公平性领域相关的综述论文,大致对该领域的发展现状和技术脉络有了初步的了解。
我其中最让我印象深刻的一篇论文综述是《A Survey on Bias and Fairness in Machine Learning》[1],这篇综述高屋建瓴地总结了在推荐系统乃至整个机器学习领域中可能存在的偏差和不公平现象。这篇论文将机器学习系统中的公平性问题划为数据偏差(bias in data), 算法公平性(algorithmic fairness)两部分。针对这两个问题学术界分别提出了不同的解决方案。
而对于相关的算法,作者将其划分为了3个类别,包括Pre-processing,In-processing