doxygen 无法生成图片_如果我真实到让你无法分辨,这件事还重要吗?

8b9c27fc619d985b62bc1298d4c928bf.png

Angela: You want to ask, so ask.

William: Are you real?

Angela: Well, if you can't tell, does it matter?

知乎视频​www.zhihu.com
zhihu-card-default.svg

看过《Westworld》第一季第二集的人一定会对这个片段印象深刻。年轻的 William 第一次游玩西部世界,在接待大厅遇见了接待员 Angela,它是一个非常逼真的人造人。

年轻的 William 非常执着于分辨,站在他面前的这个楚楚动人的接待员,是机器还是真人。

我猜《Westworld》的编剧团队一定有懂 GAN 的人,因为《Westworld》后面的剧情里,在提高一个人造人逼真程度(fidelity)的训练阶段,也遇到了模式崩塌(mode collapse)的问题。

众所周知,在模式崩塌问题得到缓和之后,我们的 GAN 现在能够生成非常逼真的人类肖像图片,逼真到我们人眼都无法分辨真假[1]

eb73924a5afa0966f2ca65e5d24274c3.png
两张人脸肖像。其中一张是真实数据,另一张是GAN生成的假数据。你能分辨出来吗?

逼真到这个程度了,我们有必要去分辨真假吗?我们还能够分辨真假吗?

这个技术很牛逼,很有用,但也很危险。

自从 Deepfake 等类似技术开源后,人人都能够制造假图片、假视频,可以把视频里的人脸替换成别人或者一个不存在的人。

点我,你也可以!

一旦这个技术普及,我们将无法通过视觉判断视频里的人,是真人还是机器人[2]。如果扩展到语音领域,我们将无法通过听觉区分电话那头的人,是真人还是机器人[3]。更进一步,我们甚至能够轻易在 微博或推特 上创建一个活生生的“人”,甚至把自己包装成美国国会候选人[4]

6641c69daf3debe4aaa62ff5abae3dfc.png
一个虚假的 Twitter 账号:Andrew Walz,这个账号头像里的人甚至根本不存在

所以不少人就开始嚷嚷着:我们要打假!

我们还能够分辨出来吗?

然后许多炼丹师就站出来了:I can't do it, but my networks can!

对于我们伟大的炼丹师而言,这不就是个简单的二分类问题么?我们先随便凑它个10万张真人图片,再用GAN随便生成10万张假图片。然后找个在 ImageNet 上预训练的 ResNet-50 ,把我这个非常平衡的数据集喂进去,game over!

结果居然出乎意料地好!

我们的神经网络,分类精度能够达到95%以上,有时甚至99%[5]!妙啊!

这时候人类就纳闷啊:凭什么我们人类都做不到的事,你这个 Artificial Idiot 准确率怎么能这么高?难道你是 super-human ?

7dc6680b97213f18208ee3a51e6b69b3.png
抱歉,有GPU是真的能为所欲为的

所以这里一定存在某些统计意义上的特征、模式,它们藏在 GAN 生成的图片中,而我们人类察觉不到。一篇论文分析了这些假图片的频谱,发现假图片的频谱与真图片相比,存在着一些伪影(artifacts),我们的卷积神经网络正好可以利用这些作为特征以辨别真假图片[1]

碰巧的是,我在《对抗鲁棒性简介》里介绍过的 对抗样本,我们人类肉眼也是几乎无法把它与原始图片区分开的。碰巧的是,也有人分析过对抗样本的频谱[6][7],结论也与上文类似!

What a coincidence!

巧合的背后是事物的本质,是潜在的规律。

我们的卷积网络天生就非常擅长捕捉并利用这些频域上的特征(毕竟 时域卷积=频域乘积

扰动一些高频的特征,人类察觉不到,但我们的卷积网络对此非常敏感,这也是对抗样本现象存在的原因之一!参见:《深度学习为何不鲁棒》

是日也,天朗气清,惠风和畅,仰观宇宙之大,俯察品类之盛,所以游目骋怀,足以极视听之娱,信可乐也。

这时候,我们的 Nicholas Carlini 大佬就出现了!他来了,他来了,他带着犀利的文章走来了![8]

大佬就是大佬,文章 Introduction 第一句:“According to his Twitter account, Andrew Walz, was a congressional candidate”。

哈哈哈哈哈,xswl......... 文章开篇就 “根据某推特账号,blablabla.....”

他直接宣布:你们炼丹师训练的这些真假图片检测器,是不鲁棒的!一个微小的扰动,就能够让检测器认为图片是真的!

63347cd2f0ac6c1225837f5ecd7fa315.png
(a)对抗样本,被检测器错分为real;(b)StyleGAN2生成的一张假图片,被检测器成功分类为fake;(c)对抗扰动

这在我们搞对抗鲁棒性的人看来,是一件习以为常且喜闻乐见的事,哈哈哈!

Carlini 设计了五种攻击方法,都具有很强的成功率,且对抗样本具备很强的迁移性。

所以我只要稍微在 GAN 生成的假图片上加一点小扰动,或者在 GAN 的隐空间加一点小扰动后再生成假图片,你这个检测器就失效啦~

这个时候,你神经网络也分辨不出来,我们人类也分辨不出来。

If you can't tell, does it matter?

参考

  1. ^abLeveraging Frequency Analysis for Deep Fake Image Recognition, ICML 2020
  2. ^宅男福音deepfakes开源了 https://mp.weixin.qq.com/s/hUcQ1SEZlHp7c-wQ-jlfRg
  3. ^靠「老板语音」骗走182万!音频版Deepfake让员工真假难辨乖乖转账 https://mp.weixin.qq.com/s/Zi78wMI4KZiDcMWy30YgQw
  4. ^A high school student created a fake 2020 candidate. Twitter verified it https://edition.cnn.com/2020/02/28/tech/fake-twitter-candidate-2020/index.html
  5. ^What makes fake images detectable? Understanding properties that generalize, ECCV 2020
  6. ^A Fourier Perspective on Model Robustness in Computer Vision, NeurIPS 2019
  7. ^High Frequency Component Helps Explain the Generalization of Convolutional Neural Networks, CVPR 2020
  8. ^Evading Deepfake-Image Detectors with White- and Black-Box Attacks, CVPR 2020
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值