按中李沐的读论文方法只看摘要、结论和介绍,有兴趣的再看模型和实验。
摘要
随着人工智能系统和应用在我们日常生活中的广泛使用,在设计这些类型的系统时,考虑公平问题是很重要的。这种系统可能用于许多敏感的环境中,以作出重要的和改变生活的决定。因此,确保这些决定不反映对某些群体或人群的歧视行为是至关重要的。我们最近看到了机器学习、自然语言处理和深度学习的工作,它们在不同的子领域解决了很多问题。随着这些系统的商业化,研究人员逐渐意识到这些应用程序可能包含的偏见,并试图解决它们。在这篇综述中,我们调查了不同的应用程序,这些应用程序以不同的方式体现了偏见,我们列出了可能影响AI应用程序的不同偏见来源。然后,我们为机器学习的公平定义创建了一个分类。此外,我们研究了人工智能的不同领域和子领域,展示了研究人员在最先进的方法中观察到的不公平问题,以及他们如何试图解决这些问题。为了缓解人工智能系统中的偏见问题,未来仍有许多方向和解决方案可以采取。我们希望这项调查将激励研究人员在不久的将来通过观察各自领域的现有工作来解决这些问题。
CONCLUSION
在这篇综述中,我们介绍了人工智能系统可能产生负面影响的偏见和不公平问题。主要从两个方面来看这个问题:数据和算法。我们阐述了其中的一些问题,并说明了为什么公平是一个重要的问题,同时提供了不公平可能对社会造成的潜在的现实危害的例子——例如司法系统中的应用、人脸识别和推广算法。然后我们回顾了研究人员提出的公平和偏见的定义。为了进一步激发读者的兴趣,我们提供了一些不同领域解决可能影响人工智能系统的偏见的工作,以及人工智能的不同方法