主动防御多种Deepfake模型,北大王选所在AAAI22上提出跨模型通用对抗水印CMUA-Watermark...

北京大学王选所在AAAI 2022提出CMUA-Watermark,这是一种跨模型通用对抗水印,用于主动防御多种Deepfake模型。通过两级扰动融合策略,提高水印的迁移性,防止Deepfake的滥用。通过TPE搜索优化步长,确保水印在不同模型间的有效性。实验结果显示,CMUA-Watermark在多个Deepfake模型上取得优异的防御效果。
摘要由CSDN通过智能技术生成

关注公众号,发现CV技术之美

本文分享AAAI 2022论文『CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for Combating Deepfakes』,由北大王选所提出跨模型通用对抗水印 CMUA-Watermark,主动防御多种 Deepfake模型。

详细信息如下:

467e9d2ca966f1924f998a6021bc784f.png

  • 论文链接:https://arxiv.org/abs/2105.10872

  • 项目链接:https://github.com/VDIGPKU/CMUA-Watermark


      01      

前言

相信大家都看过换脸视频(Deepfake Video)吧?Deepfake指的是利用对抗生成网络或其他内容生成技术生成虚假但看起来十分逼真的图像或视频,只要输入一个人的图片或视频,就可以在生成的图片或视频中使这个人做出其未做过的事情或者未说过的话,而这些人脸看上去十分真实,甚至能骗过人脸识别系统。

至今为止,Deepfake的滥用不仅让诸多虚假新闻得以传播,同时,含有虚假政治、色情信息的视频和图片也对人们的生活造成了巨大的伤害,随着生成技术的不断发展,由Deepfake引起的身份盗用、诈骗勒索等安全问题也日益显著。

ae32837676cfe867ba08d5cb03df5baf.png

图1 Deepfake换脸样例[1]

在这样的背景下,研究人员开始研究怎么防止Deepfake被恶意利用。目前,主流的方法采用被动防御,其会训练一个检测器,检测哪些内容是Deepfake生成的,哪些内容是真实的。不幸的是,这种方法只能被动防御和事后取证,并不能阻止Deepfake图片、视频的生成和传播,也没有办法避免虚假内容造成的伤害。

最近,有学者提出一种主动防御的方式,是基于对抗攻击(adversarial attack)的思想,给照片加上一个对抗性的水印,以扭曲Deepfake生成的内容,达到“看一眼就知道是假的”的效果,该类方法可以干扰Deepfake的生成过程,进而在生成阶段遏制住Deepfake的威胁。这种对抗性水印往往是人眼无法分辨的微小扰动,但它可以针对Deepfake网络,扭曲其输出(即扭曲生成的虚假内容)。但是目前的方法往往只能针对一张特定的照片、一种特定的Deepfake模型。也就是说,如果换了一张照片,或者换了一个Deepfake模型,这个水印的保护性能就可能大打折扣。

  • 0
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值