高清人脸数据集汇总 (主要用于人脸生成、分割任务)

在下载动漫人脸数据集快1天还没能成功时突然发现了如下网站:

http://www.seeprettyface.com/

里面有各种人脸数据集的百度云链接,下载起来快上不少!

包括:

男性人脸数据集  数目:50000张 | 大小:74.58GB

女性人脸数据集  数目:50000张 | 大小:74.62GB

黄种人脸数据集  数目:50000张 | 大小:71.79GB

小孩人脸数据集  数目:10000张 | 大小:14.62GB

成年人人脸数据集  数目:10000张 | 大小:14.84GB

老年人人脸数据集  数目:10000张 | 大小:15.18GB

戴眼镜的人脸数据集  数目:50000张 | 大小:75.65GB

笑容人脸数据集  数目:50000张 | 大小:74.84GB

中国网红人脸数据集  数目:10000张 | 大小:12.75GB

亚洲明星人脸数据集  数目:10000张 | 大小:13.25GB

世界超模人脸数据集  数目:10000张 | 大小:13.69GB

动漫人脸数据集 图片尺寸:512*512 | 图片格式:JPG | 数目:140000张 | 大小:10.9GB

 

下载十分方便,下载链接请到原网站查看

http://www.seeprettyface.com/mydataset.html

 

除此之外,

CelebA-HQ数据集:

30000张,512*512人脸图片 下载链接(含百度云等)见https://github.com/switchablenorms/CelebAMask-HQ

CelebA-HQ was collected from CelebA and further post-processed by the following paper :
Karras et. al, "Progressive Growing of GANs for Improved Quality, Stability, and Variation", in Internation Conference on Reoresentation Learning (ICLR), 2018

FFHQ数据集:

Google: https://github.com/NVlabs/ffhq-dataset

百度网盘:https://blog.csdn.net/qq_37867534/article/details/90404660

 

  • 7
    点赞
  • 41
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
首先需要安装以下库: - numpy - cv2 - os - tensorflow - keras 然后可以按照以下步骤进行操作: 1. 下载Helen人脸数据集,并解压缩到指定目录下。 2. 在代码中导入必要的库: ```python import numpy as np import cv2 import os import tensorflow as tf from keras.models import Model, load_model ``` 3. 加载已经训练好的分割模型: ```python model = load_model('path/to/model.h5') ``` 4. 定义分割函数,输入人脸图像,输出分割结果: ```python def segment_face(img): # resize to 256x256 img_resize = cv2.resize(img, (256, 256)) # convert to float and normalize img_resize = img_resize.astype('float32') / 255.0 # expand dimensions for model input img_expand = np.expand_dims(img_resize, axis=0) # predict segmentation seg = model.predict(img_expand) # threshold output seg = (seg > 0.5).astype('uint8') # resize output to original size seg_resize = cv2.resize(seg[0], (img.shape[1], img.shape[0])) return seg_resize ``` 5. 遍历Helen数据集中所有的人脸图像,对每个图像进行分割: ```python data_dir = 'path/to/helen/dataset' save_dir = 'path/to/save/segmentation' # loop over all image directories in data directory for dir_name in os.listdir(data_dir): if not os.path.isdir(os.path.join(data_dir, dir_name)): continue # create directory for segmentation results seg_dir = os.path.join(save_dir, dir_name) os.makedirs(seg_dir, exist_ok=True) # loop over all images in image directory for img_name in os.listdir(os.path.join(data_dir, dir_name)): if not img_name.endswith('.jpg'): continue # read image img = cv2.imread(os.path.join(data_dir, dir_name, img_name)) # segment face seg = segment_face(img) # save segmentation result seg_name = img_name.replace('.jpg', '_seg.jpg') cv2.imwrite(os.path.join(seg_dir, seg_name), seg) ``` 这样就可以生成Helen数据集中所有人脸图像的分割结果,并保存到指定目录下。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

R.X. NLOS

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值