知乎:https://zhuanlan.zhihu.com/p/82797696
-这其中,有篡改输入人脸识别系统的图像,让它无法识别图中存在人脸的,比如多伦多大学的《Adversarial Attacks on Face Detectors using Neural Net based Constrained Optimization》
- 也有 CMU 设计的特殊眼镜,佩戴以后,即便经过监控设备的采集,仍然无法识别到图像中存在人脸,或者会被识别为另一个人;而且这种装饰方法算不上夸张,不那么容易引起别人怀疑。(论文《Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition》
- 近日又出现了一篇新的论文,来自挪威科技大学的《DeepPrivacy: A Generative Adversarial Network for Face Anonymization》(arxiv.org/abs/1909.04538),从新的、更有挑战的角度欺骗人脸识别系统:在不改变原来的数据分布的前提下把人脸匿名化,更通俗地说就是模型的输出还是一张逼真的人脸,姿态和背景也和原图相同,但完全无法识别出原来的人脸身份,也就是「换了一张脸」【生成器的架构是一个U-NET】
- 这篇论文的模型中的
生成器设计参考了《Progressive Growing of GANs for Improved Quality, Stability, and Variation》(arxiv.org/abs/1710.10196)论文
,从低分辨率的图像开始,逐级地提高分辨率、增加细节,最终可以同时兼顾图像中的内容高度协调、高稳定性、高多样性。这种方法是 GANs 首次可以生成 1024x1024 尺寸的高清图像。作者们还一并讨论了一些改进 GANs 训练过程的技巧。 - 另外,雷锋网 AI 科技评论认为值得一提的是来自英伟达的《A Style-Based Generator Architecture for Generative Adversarial Networks》(arxiv.org/abs/1812.04948),它是 CVPR 2019 的 最佳论文之一,也是目前为止生成高清晰度、高多样性的人脸效果最好的方法。毋庸置疑,这种方法生成的人脸比 DeepPrivacy 更逼真,而且也同样可以生成随机的新身份,不过就没办法控制同样的姿态和背景了。
https://blog.csdn.net/duxinshuxiaobian/article/details/102634418
条件生成对抗网络
- 训练模型的首选机制当然是
条件式生成对抗网络架构(cGAN architecture)
,这个概念最初由Mehdi Mirza和Simon
Osindero在其论文《条件式生成对抗网络》(‘Conditional Generative Adversarial
Nets’)中提出(https://arxiv.org/abs/1411.1784)。条件式生成对抗网络是深度学习一个非常重要的结构,下文将深入研究生成式对抗网络/条件式生成式对抗网络(GAN/cGAN)是如何工作的,以及为什么这两个工具在面部匿名化中如此合适。