目录
前言
我们的论文解决了将发型从参考图像转换为虚拟发型试戴的输入照片的复杂任务。由于需要适应各种照片姿势、发型的敏感性以及缺乏客观的衡量标准,这项任务具有挑战性。目前的艺术发型转移方法的不同部分使用优化过程,使它们慢得不可原谅。同时,更快的基于编码器的模型质量非常低,因为它们要么在StyleGAN的W+空间中操作,要么使用其他低维图像生成器。此外,当源姿势与目标姿势非常不同时,这两种方法都有发型转移的问题,因为它们要么根本不考虑该姿势,要么低效地处理它。
在我们的论文中,我们提出了HairFast模型,该模型唯一地解决了这些问题,并且与基于优化问题的方法相比,实现了高分辨率、接近实时的性能和优越的重建。我们的解决方案包括在StyleGAN的FS潜在空间中运行的新架构、增强的修复方法、改进的编码器(用于更好的对齐、颜色传输)和用于后处理的新编码器。我们的方法的有效性在随机发型转换和原始发型转换时重建后的真实感度量上得到验证。在最困难的场景中,从不同的图像中传输发型的形状和颜色,我们的方法在Nvidia V100上不到一秒钟就可以完成。
源代码下载
受外网限制,部分依赖库无法远程git,我把整个项目代码以及关联模型全部拷贝到了百度网盘里,此版本为2024.7发布,6.65G大小,请先下载:
百度网盘点击下载https://pan.baidu.com/s/1kP1B9z6sRF-zWqhfFX3F4g?pwd=ebss
实验环境
矩池云GPU服务器(仅供参考)https://matpool.com/
NVIDIA RTX A2000
Pytorch1.13.1
用你的Xshell和FTP远程连上就可以使用了
如果没有这两个远程工具的可以下载
Xshell+Xftphttps://pan.baidu.com/s/1lK5slEaKi5VaQgFR_KcRmQ?pwd=qsha%C2%A0
使用步骤
1. 新建环境
连接Xshell,运行以下命令
conda create --name hair python=3.10 # 创建虚拟环境
conda activate hair # 切换虚拟环境
2. 导入项目
① 连接FTP,将压缩包上传至/home下
② 使用Xshell,运行以下命令
cd /home # 项目路径
unzip HairFastGAN-main.zip # 解压缩
pip install CLIP-main.zip # 安装CLIP包
rm -f /home/HairFastGAN-main.zip # 删除压缩包
rm -f /home/CLIP-main.zip # 删除压缩包
3. 安装依赖
cd /home/HairFastGAN-main # 项目目录
pip install -r requirements.txt # 安装依赖
conda install -c conda-forge ninja #安装依赖
4. 运行项目
首次加载时间会长,之后运行每次耗时30~40秒(和显卡有关)
python main.py --face_path=0.png --shape_path=1.png --color_path=7.png --input_dir=input --result_path=output/result.png # 预测
运行结果:
目标发型(左),参考发型(中),融合发型(右)