自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 Fair Attribute Classification through Latent Space De-biasing

题目:通过潜在空间去偏的公平属性分类研究背景:大规模监督学习一直是视觉识别发展背后的驱动力。然而,最近人们越来越担心这些视觉识别系统的不同影响。人脸识别系统从没有充分代表某些种族群体的数据集训练,对这些群体显示出较低的准确率。在被描述的人的活动性和性别表达高度相关的数据集上训练的活动识别模型已经过度放大了这些相关性。计算机视觉系统是一种经过训练的统计模型,可以在大多数例子上获得最大的准确性,它们通过利用数据集中最具鉴别性的线索来做到这一点,这可能是不受欢迎的。在这项工作中,我们引入了一种新的训练计算机视

2020-12-14 21:51:00 464

原创 公平性机器学习中基于分类间隔的歧视样本发现和消除算法

发表于中国科学:信息科学主要是提出了提出了一种基于分类间隔的加权方法用于处理二分类任务中的歧视现象, 并在 demographic parity 和 equalized odds 公平性判定准则上实现分类公平。通过发现和消除原始数据集中的歧视样本寻找生成公平数据集的方法。论文中总结了机器学习公平性的研究,大致归为以下 3 大类:第 1 类方法通过数据预处理消除歧视样本. 主要策略是通过修改训练集来平衡分类公平性和准确性, 如修改样本属性、 修改样本标签、 修改训练集大小;第 2 类方法在模型的

2020-12-02 17:44:42 905 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除