最近北航的同学们新出了一篇文章,把人脸的真实照片转换为《死神》风的漫画,效果如图所示:
论文名:《Unpaired Photo-to-manga Translation Based on The Methodology of Manga Drawing 》
论文链接:https://arxiv.org/pdf/2004.10634v1.pdf
那么具体是怎么做到的呢,作者提出了三个创新点:
1、作者提出了MangaGAN,模拟漫画画手,先用一个GAN生成夸张的脸部几何特征,再用定制的多个GAN精细地转换每一个面部区域。
2、作者提出了一个相似度保留模块,它不仅能更好地保留脸部相似度,还能保留漫画的风格。同时作者提出了一个结构平滑损失,使得结果的线条更加平滑、噪声更少。
3、作者构建了一个新的数据集叫做MangaGAN-BL,收集于《死神》,包含了人工裁剪、矫正、修复过的脸部特征、关键点、身体等等。已开源用于学术研究。
在这篇文章中,作者着重与Neural style transfer和GAN-based cross-domain translation做了