基于人脸的抗欺骗检测:Deep Tree Learning for Zero-shot Face Anti-Spoofing

首先介绍一下作者:Yaojie Liu,a fourth-year Ph.D. student at the Department of Computer Science and Engineering, Michigan State University. I’m a current member of Computer Vision Lab (CVLAB), advised by Dr. Xiaoming Liu. he is a member of Computational Biology and Cognitive Science Lab (CBCSL).

His research is on CV/ML, with particular interests in face representation & analysis, including face anti-spoofing, 2D/3D large pose face alignment, 3D face reconstruction, audio-visual modeling.

他的主页链接:https://yaojieliu.github.io/

下面是Deep Tree Learning for Zero-shot Face Anti-Spoofing的论文翻译,全是机翻,大家可以适当调整。

摘要

Face anti-spoofing旨在防止面部识别系统将假面部识别为真正的用户。虽然开发了先进的面部反欺骗方法,但也正在创建新类型的欺骗攻击,并对所有现有系统构成威胁。我们将未知欺骗攻击的检测定义为零次学习的面部抗欺骗检测(ZSFA)。以前的ZSFA只能研究12种类型的恶搞攻击,例如打印/重放,这限制了这个问题的洞察力。在这项工作中,我们调查了13种类型的欺骗攻击中的ZSFA问题,包括打印,重放,3D掩码等。提出了一种新颖的深度树网络(DTN),用于以无人监督的方式将欺骗样本划分为语义子群。当数据样本到达时,知道或未知的攻击,DTN将其路由到最相似的欺骗群集,并做出二元决策。此外,为了能够研究ZSFA,我们引入了包含各种类型的欺骗攻击的第一面防反欺骗数据库。实验表明,我们提出的方法达到了ZSFA多种测试协议的最新技术水平。

1.简介

面部是最流行的生物识别模式之一,因为其使用方便,例如访问控制,电话解锁。尽管识别准确度高,但是人脸识别系统不能区分真实人脸和假人脸,例如照片,屏幕。因此,他们容易遭受面部欺骗攻击,这会欺骗系统识别为另一个人。为了安全地使用面部识别,需要面部反间谍技术来在执行识别之前检测欺骗攻击。
攻击者可以利用各种媒介来发动欺骗攻击。最常见的是在数字屏幕上重放视频/图像,即重放攻击和打印的照片,即打印攻击。基于传统方法的特征[7,35,38]或基于CNN的特征,提出了不同的方法来处理重放和打印攻击
tures [4,18,20,32]。最近,高质量3D定制面具也用于攻击,即3D面具攻击。在[29-31]中,发现用于检测打印/重放攻击的方法对于这种新的欺骗不太有效,因此作者利用远程光电容积描记法(r-PPG)来检测心率脉冲作为间接提示。此外,面部化妆也可能影响识别的结果,即化妆攻击[12]。许多作品[11-13]研究面部化妆,尽管不是一个反间谍问题。
在这里插入图片描述
所有上述方法都针对已知的欺骗攻击提供算法解决方案,其中模型在相同类型的欺骗攻击上被训练和测试。但是,在实际应用程序中,攻击者还可以发起我们(算法设计者)不知道的欺骗攻击,称为未知欺骗攻击1。研究人员越来越关注反间谍模型的概括,即他们能够检测到在培训期间从未见过的恶搞攻击的程度如何?我们定义了概率1 1)看不见的攻击,算法设计者已知的攻击类型,以便算法可以为他们量身定制,但他们的数据在训练期间是看不见的; 2)未知的攻击,攻击类型既不是设计者所知,也不是在训练中看到的。我们不区分这两种情况,并将两种未知攻击都

  • 3
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值