格灵深瞳开源全球最大最干净的人脸识别数据集:Glint360K

本文转载自知乎,已获作者授权转载。

链接:https://zhuanlan.zhihu.com/p/265673438

   1.数据集的表现

学术界的测评比如IJB-C和megaface,利用该数据集很容易刷到SOTA,大家具体可以看论文,这里展示一下IFRT的结果,IFRT又称国产FRVT, IFRT测试集主要有不同肤色的素人构成,相比起IJB-C和megaface更具有模型的区分度。

InsightFace Recognition Test (国产FRVT):

https://github.com/deepinsight/insightface/tree/master/IFRT

相比起目前最好的训练集MS1MV3,Glint360K有十个点的提升

   2.数据集的规模

类别数目和图片数目比主流训练集加起来还要多

Glint360K具有36w类别,和1700w张图片,不论在类别数还是图片数目,相比起MS1MV2都是大幅度的提升。

   3.如何训练大规模的数据

人脸识别任务特点就是数据多,类别大,几百万几千万类别的数据集在大公司非常常见,例如2015年的时候,Google声称他们有800w类别的人脸训练集。训如此规模的数据时,很直接的方法就是混合并行,即backbone使用数据并行,分类层使用模型并行,  ( 线性变换矩阵)分卡存储,这样优点有两个:

1. 缓解了  的存储压力。

2. 将  梯度的通信转换成了所有GPU的特征  与  局部分母的通信,大大降低了由于数据并行的带了的通信开销。

这种方法看似可以训练无限的类别(增加GPU的个数就好了),感觉很完美,但是实际上大家在尝试更大规模,更多机器的时候,突然发现,怎么显存不够用了,好像增加类别数的同时增加机器,单个GPU的显存还在增长? 其实我们忽略了另外一个占据显存的张量:  。

首先定义  ,其中  为存储在每张GPU上的子矩阵,  为经过集合通信  收集到全局的特征,  为特征的维度大小,  为总的类别数,  为GPU的个数,其中每块GPU中  占用的显存为:

通过这个公式我们发现,更多的类别数,只要增加GPU的个数,就可以维持  占用的显存不变,我们再看看  ,设每张卡上的批次大小为  ,则对于分类层的总批次大小为  ,每块GPU中  占用的显存为:

我们发现,即使类别数和GPU的个数同时增长之后, 占用的显存与总的批次大小  相关,随着GPU个数的增加,  占用的显存是持续增加的,设100w类别需要用一台8卡RTX2080Ti就够了,则1000w类别需要10台8卡RTX2080Ti,设特征维度为512,每张GPU的批次大小为64,则在训练1000w类别的任务时,每个GPU  占用的显存为  的十倍,在这个例子中,混合并行解决了  占用的显存,却增加了  占用的显存。

   4. Partial-FC

在人脸识别中,  的作用为拉近特征与其相应"正类中心"的距离,对其他的"负类中心"则保持距离。这点其实和最近很火热的自监督表征学习非常类似,Moco通过队列保存更多的历史负样本,SimCLR则使用多机多卡,超大的batchsize来增加负样本的个数,我们发现SimCLR再很大batchsize的时候提升有限了,而再人脸识别中的大规模分类,每个特征的负类中心是所有的类中心,把这些负类中心减少一些是不是也能取到到一样的效果?

答案是肯定的,具体实现方式还是要结合混合并行一起做,我们的做法很简单,"正类必采,负类随机",再采样类中心的时候,我们要保证正类中心一定是要必须采到的。

所以首先会把正类中心都拿出来,其次会随机的采样一些负类中心,补齐到约定的采样率即可。再混合并行的实现中,数据会随机的出现再不同的GPU上,而它的"正类中心"则实现会根据其类别的按照顺序存放在一个固定的GPU上,则会出现样本和"正类中心"不再同一张GPU上的问题。

这个解决方案其实也很简单:在我们实现混合并行的时候,不仅同步了每张卡的特征,同时也同步了每张卡标签,每张卡都有所有卡完整的特征和标签,假设总的批次大小为  ,则至多会有  个正类中心随机分布再所有的GPU中,我们让每个正类中心所属的GPU将该正类采样出来即可,每张GPU正类采出来后,再随机用负类补齐到约定的采样率,这样是的每张GPU采样的到的类中心都是一样多的,实现负载均衡。后续的过程就就是分类层的模型并行部分了,需要注意的是,只有采样出来的类中心的权重和动量会更新。

   5. 实验表现

性能方面:

我们在内部的业务和FRVT竞赛上都验证了这个方法,再学术界的测试集IJBC和Megaface上,使用Glint360K的Full softmax和10%采样会有着相当的结果。

效率方面:

在64块2080Ti,类别数1000w的实验条件下,Partial FC 的速度会是混合并行的3倍,占用的显存也会更低,并且最大支持的类别数也有了一个数量级的飞跃,成功训练起来了一亿id的分类任务。

代码和数据地址:

https://github.com/deepinsight/insightface/tree/master/recognition/partial_fc#glint360k

论文地址:

https://arxiv.org/abs/2010.05222

END

备注:人脸

人脸技术交流群

人脸检测、识别、对齐、重建、表情识别、表情迁移等技术,

若已为CV君其他账号好友请直接私信。

我爱计算机视觉

微信号:aicvml

QQ群:805388940

微博知乎:@我爱计算机视觉

投稿:amos@52cv.net

网站:www.52cv.net

在看,让更多人看到  

<think>好的,我需要帮助用户下载人脸识别相关的数据集。首先,我应该回顾用户之前的问题和提供的引用内容。用户之前提到过想要下载数据集,并且引用了几个相关的资源,比如WebFace260M、UFI数据库等。现在需要根据这些引用和一般的人脸识别数据集知识来生成回答。 首先,我需要确保回答结构清晰,分步骤或分类别介绍不同的数据集,这样用户可以根据需求选择。同时,要包含每个数据集的名称、特点、用途以及下载方式,可能的话提供官方链接。要注意引用用户提供的引用内容,比如引用[2]中的UFI数据库,引用[4]中的WebFace260M,引用[3]中的创建dataset目录的建议可能在这里不太相关,但可以忽略。 接下来,我需要列举常用的人脸识别数据集,包括学术常用和工业级的。比如LFW、CelebA、MS-Celeb-1M、VGGFace2、CASIA-WebFace,以及用户提到的WebFace260M和UFI。每个数据集需要简要描述其特点、数据量、用途,以及如何下载。例如,LFW主要用于人脸验证,CelebA包含大量属性标注,WebFace260M是大规模数据集,UFI是真实场景的数据。 此外,需要注意用户提到的传统数据集和基于深度学习的现代数据集。例如,传统方法可能使用LFW,而深度学习需要更大的数据如WebFace260M或VGGFace2。同时,要提醒用户下载数据集时遵守使用协议,特别是涉及隐私和版权的部分。 可能还需要补充一些其他资源,比如Glint360K或MegaFace,这些也是常用的人脸识别基准。但要根据引用内容,优先包含用户提到的数据集。例如,引用[2]中的UFI需要详细说明其两个分区和下载方式,引用[4]中的WebFace260M要说明其规模和应用场景。 后,生成相关问题,考虑用户可能的后续疑问,比如数据集的格式、处理工具,或者如何构建自己的数据集。确保问题与下载和使用数据集相关,帮助用户进一步探索。</think>### 人脸识别数据集下载指南 以下是常用的人脸识别数据集及下载方式,涵盖学术研究和工业应用场景: --- #### **1. 学术研究常用数据集** - **LFW (Labeled Faces in the Wild)** - **特点**: 包含13,000+人脸图像,6,000+名人,用于人脸验证基准测试[^4]。 - **下载**: [官方链接](http://vis-www.cs.umass.edu/lfw/) - **CelebA** - **特点**: 200,000+名人图像,40+属性标注(如性别、眼镜、姿势),适合多任务学习。 - **下载**: [官方链接](https://mmlab.ie.cuhk.edu.hk/projects/CelebA.html) - **CASIA-WebFace** - **特点**: 500,000+图像,10,000+身份,早期深度学习模型(如FaceNet)常用训练集。 - **下载**: 需通过[申请页面](http://www.cbsr.ia.ac.cn/english/CASIA-WebFace-Database.html)获取。 --- #### **2. 工业级大规模数据集** - **WebFace260M** - **特点**: 百万级规模,覆盖4,000,000+身份,支持深度学习模型训练,可评估拒识率(FNMR)等指标[^4]。 - **下载**: 需通过论文《WebFace260M:A Benchmark Unveiling...》作者提供的渠道申请。 - **VGGFace2** - **特点**: 3,300,000+图像,9,000+身份,覆盖多样姿态、年龄和光照条件。 - **下载**: [官方链接](https://www.robots.ox.ac.uk/~vgg/data/vgg_face2/) - **MS-Celeb-1M** - **特点**: 10,000,000+图像,100,000+名人,需注意版权限制。 - **下载**: 已不再公开,可尝试通过学术机构申请。 --- #### **3. 真实场景数据集** - **UFI (Unconstrained Facial Images)** - **特点**: 来自捷克新闻社的真实照片,包含自动裁剪和原始背景两种分区,适合测试完整人脸识别系统[^2]。 - **下载**: 访问[ČTK官网](https://www.ctk.eu/)或联系数据库管理员获取权限。 --- #### **4. 其他资源** - **GitHub开源项目**: 搜索关键词如 `face-recognition-datasets`,可找到整理好的数据集列表(如[deepinsight/insightface](https://github.com/deepinsight/insightface))。 - **Kaggle平台**: 提供小型数据集(如[Face Recognition Dataset](https://www.kaggle.com/datasets/hereisburak/pins-face-recognition))和预训练模型。 --- ### 注意事项 1. **数据合规性**: 部分数据集需签署协议(如LFW),商用需注意版权[^1]。 2. **预处理**: 使用脚本自动裁剪人脸时,可参考OpenCV的`Viola-Jones`算法[^2]。 3. **存储建议**: 按引用[^3]创建独立目录(如`dataset`)分类存储样本。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值