【论文翻译】Integration of image quality and motion cues for face anti-spoofing: A neural network approa

【论文翻译】Integration of image quality and motion cues for face anti-spoofing: A   neural network approach

【翻译时间】2018.09.04

           题目: 将图像质量和动作线索整合到面部反欺骗:一种神经网络方法

 

3. The proposed approach

 

  • 3.1. Autoencoder and softmax classifier

 

     一个自动编码器是试图学习近似于恒等函数的近似值的一个神经网络,所以输出x和x相似

如图2所示。优化自动编码器的成本函数是

         

其中J(w,b)是用于学习恒等函数的自动编码器的代价函数,Jsparse(w,b)是自编码器的稀疏约束的代价函数,p是稀疏参数,^pj是第j个隐单元的平均激活,KL是Kullback-Leiber散度函数,用来测量p和^pj之间的差异,s2是隐藏层中神经元的数目,b是稀疏刑罚项的权重,通过放置尺寸约简( dimension-reduced )的隐层和稀疏约束,可以得到输入的压缩稀疏表示,作为瓶颈表示。 然后,将学习到的瓶颈表示作为软最大分类器的输入,以构建分类神经网络,如图3所示.

 

    

          

 

            整个神经网络的全局微调是通过使用标记数据集的反向传播来实现的。自动编码器训练可以看作是一个预训练过程,为神经网络优化提供了较好的初始解( a good initial solution)。然后,利用标记数据对自动编码器和Softmax分类器的参数进行微调,可以进一步提高活性分类( liveness classification)的瓶颈表述能力,减少训练时间。本文采用预训练和微调相结合的方法,对三种视觉线索的三个子网络和特征集成网络进行了训练。具有多个隐藏层的堆叠自动编码器( Stacked autoencoders)可以被分层次地进行训练。并且,展开的堆叠式自动编码器可以使用标签数据与Softmax分类器一起微调。分层预训练和微调是深度学习[30]的核心思想。由于神经网络中使用的sig-moid激活函数,使得瓶颈表述自动缩放到0~1,适合于融合不同尺度的多线索特征。

 

 

  • 3.2.基于剪切(.Shearlet-based)的图像质量特征

         由于缺乏方向描述符,传统小波不能对图像中的曲线奇异点(Curvilinear singularities )进行稀疏逼近。为了克服小波的缺点,剪切波近年来被提出,它能够有效地捕捉多维数据中的各向异性(anisotropic )特征[12]。剪切变换( Shearlet transform)已成功地用于进行非参考图像质量评估,作为一种最先进的方法[31]。与真实人脸相比,由于在欺骗介质(spoofing mediums)上进行人脸再现,欺骗脸可能具有锐度降低、纹理差异、加性噪声和伪影(artifacts) 。与LBP和DOE相比,剪切波能更好地描述曲线奇点,包括边缘,纹理和人工制品(artifacts)。基于剪切波的图像质量评估在识别假人脸上模糊的边缘和扭曲的纹理( blurred edges and distorted textures)、人脸再现引起的各向异性伪像(视频编码、打印等)、真实面部皮肤和欺骗介质的纹理差异等方面具有优势。

同时,剪切也可以描述各向同性噪声和欺骗面上的伪影。因此,本文提出的基于图像质量的活性特征是基于剪切波的。对于二维图像,具有复合延拓的仿射系统( affine systems)是以下形式的集合[32]:

      Aa为各向异性膨胀矩阵,Bs为剪切矩阵。

     由于与剪切变换相关的分析函数是各向异性的,并且定义在不同的尺度、位置和方位,所以剪切波能够检测到方向信息,并能解释多维函数的几何学。

     从人脸图像的剪切变换到不同的子带开始,SBIQF的计算过程总结如图4。子带中红色框中的每个元素定义为:

  

  

  

     M是正方形图像的大小,m是每个红色块的大小。SH是每个红色块的剪切系数。在每个红色块中执行剪切系数的平均池。集合值被串联为一个向量,它受对数非线性的影响:

  

                              

 

 

 

  • 3.3.基于光流的运动特征

               光流可以描述给定图像序列中基于局部导数的局部图像运动。在亮度不变和空间平滑的假设下,可以通过求解运动约束方程来计算光流:

       

             本文采用了一种基于迭代重加权最小二乘(Irls)方法的密集光流技术。光流模拟了运动方向和运动幅度。这里只使用运动幅度信息。

            与以往手工制作的基于运动的人脸真实感特征相比,所提出的基于光流的运动特征不依赖于任何预先定义的模型或先验假设,例如在真实面孔上眨眼[24],非刚性面部表情[25],摄影人脸上的平面运动模式[26],真实人脸和背景之间的低运动一致性[27],因为很难建立通用的运动模型来描述各种欺骗场景中的人脸反欺骗的运动线索。OFM映射可以捕捉面部或场景上的每一个动作。神经网络能很好地学习隐式模式,通过适当的训练,能够识别运动线索,进行人脸活性检测。因此,选择OFM映射来描述基于运动的线索,以便学习处理不同的欺骗攻击。

            在活性检测期间记录短视频(小于等于2 S)。然后,用简单的眼睛定位法提取人脸视频。在固定间隔的两帧间进行密集光流计算,得到一个OFM映射来描述两帧之间的像素级运动轨迹。使用密集的光流,在人脸视频中用一对帧生成多个人脸OFM映射。如图5(A))所示,使用这些面部OFM映射的平均值来记录面部的运动模式。如图5(b)所示,从整个帧视频中计算出平均场景映射(average scene OFM map)。背景中的风景运动线索可以记录在平均场景中,人脸区域或身体区域在计算场景OFM映射时不被排除,因为在人脸反欺骗中很难定义统一的背景/背景模型。将平均人脸/场景映射分别列成两个输入向量,作为基于人脸运动的子神经网络和基于场景运动的子神经网络的输入。

 

           根据假人脸是如何用欺骗媒介来表示的,2d人脸欺骗攻击可以分为两大类:特写欺骗和风景欺骗(close-up and scenic spoofs)。特写欺骗只描述呈现给传感器的面部区域,在此期间,在现场可以看到摄影/屏幕边缘和攻击者的手。与特写欺骗不同的是,风景画欺骗将背景场景融入到人脸欺骗中。由此产生的风景假脸被放置在传感器附近,以隐藏介质边界或人的手。

 

          在人脸欺骗攻击中会出现一些典型的运动模式,这与实际访问中的运动模式有很大的区别。例如图6(A)显示真实面部的平均OFM映射,其中非刚性局部面部运动集中在面部成分上。照片纸上显示的一张脸由于不自觉地握手而在全局内发生运动.然后,可以在脸部和背景上观察到可比的OFM,如图6(B)所示。镜面反射经常发生在视频重放设备的镜像屏幕上,它可以使用OFM映射来检测,正如图6(C)所示。面具将覆盖除眼睛运动以外的局部面部运动,并且面具上的均匀运动模式可以被记录在OFM映射上,如图6(D)所示。如图7(a)所示,一个清晰的面部轮廓出现在真实访问( a real access,即真人脸)的场景OFM映射上。对于风景欺骗,如果不稳定地支撑(拿着)显示介质,则可以检测到在帧中的全局移动,如图7(B)所示。对于特写欺骗,可疑的手和视频重播设备的边界可以在场景OFM映射中观察到,如图7(C)所示。

 

                    

 

 

4.人脸反欺骗数据库

          

      为了评估所提出的人脸防欺骗方法的性能,采用了三个公开的人脸防欺骗数据库作为基准,包括重放攻击数据库、Casia-FASD数据库和3D-MAD数据库(the REPLAY-ATTACK database,the CASIA-FASD database, and the 3D-MAD database.)。

 

  • 4.1. REPLAY-ATTACK database

            这个数据库收集了1200个真实访问和面部欺骗攻击的短视频,这些视频来自50个被试者,用摄像头(webcam)记录下来。视频记录在两个不同的照明条件:(1)控制(controlled),具有统一的背景和人工照明;(2)不利的(adverse),具有复杂的背景和自然照明。考虑了两种不同支持条件下的三种不同攻击:(1)打印:A4纸上的高分辨率照片呈现给摄像机;(2)使用智能手机拍摄和显示的照片和视频 呈现给摄像机;(3)高分辨率:使用平板电脑显示的高分辨率照片和视频被呈现给相机。支撑条件包括:(1)手持:攻击媒体用手握住;(2)固定:攻击媒体附着在固定支架上。图8中示出了来自不同场景中的真实访问和欺骗攻击的一些示例帧。

 

                                                  

 

    将重播攻击数据库中的所有对象分别划分为三个不重叠的子集,分别为15、15和20人:(1)训练,调整分类器的参数;(2)开发,确定决策阈值;(3)测试,评估最终的分类性能。

 

  • 4.2. CASIA-FASD database

 

          该数据库由来自50个客户的600个短视频组成[7],使用三台不同成像质量的数码相机记录他们的真实访问和相应的三种不同类型的欺骗企图,这三种攻击包括:(1)扭曲照片:将铜纸上的面部照片呈现给摄像机,通过扭曲照片模拟面部运动;(2)切割照片:为显示眨眼而切断眼睛区域;(3)视频:使用高分辨率平板电脑显示高质量的正版视频(genuine video)。利用(1)低质量、(2)中质量、(3)高质量的成像装置,实现了三种不同的成像质量条件。图9中示出了来自不同场景中真实和假视频的示例帧。Casia-fasd数据库分为(1)训练子集和(2)测试子集,分别有20和30个独立的受试者。

 

                        

 

 

  • 4.3. 3D-MAD database

           该数据库由来自17个研究对象的255段真实访问和掩码攻击的短片组成[8]。彩色图像和深度地图()是同时使用自然用户界面设备拍摄的。本论文只使用彩色图像。图10中给出了真实脸和蒙面的实例帧。将3d-mad数据库随机划分为三个不重叠的子集,分别为7、5和5个主题:(1)训练,优化分类器;(2)开发,确定解码阈值;(3)测试,报告欺骗检测结果。

                      

                 

 

  • 4.4. Protocol

           

             建议在回放攻击和3D MAD数据库上对所提出的对策使用HTER进行客观评价。hter被定义为

                  

 

 

     t的值是用开发子集确定的.EER是在FAR等于FRR的条件下产生的。如上所述,在3D MAD数据库中没有显式分区,用于训练、开发和测试子集。因此,在3d-mad数据库上报告的结果是随机数据库分区经过10次迭代的平均次数。 

     在CAASAS-FASD数据库中缺少一个开发子集.因此,EER被用于报告CAASAS-FASD数据库的评估结果,而不是hter,正如其协议中所建议的那样。

 

 

5. Experimental results

 

        实验采用两重目标设计,首先对所提出的三种人脸活性特征的抗欺骗性能进行了评价,包括Sbiqf、平均人脸OFM映射和平均场景OFM映射。在此基础上,对基于多线索集成的人脸反欺骗方法进行了评价,并与目前最先进的人脸欺骗算法进行了比较。其次,通过对原始特征融合、分数融合和瓶颈特征融合的比较,讨论了多线索融合策略。

 

  • 5.1.实验参数的设置

 

          从数据库中的每一个视频中随机选取l连续的60帧来生成场景(全帧)视频。在初始帧中,使用具有眼睛定位对齐的Via-Jones algorithm确定的面部坐标用于所有60帧从场景视频中提取人脸视频。计算两帧间的OFM映射地方法是,首先从固定间隔为5帧的30个连续人脸/场景帧中选取6个人脸/场景帧,计算平均人脸/场景帧。然后利用所选的6个人脸/场景帧连续计算5幅人脸/场景映射。并从所选的6个人脸帧中的第一个中提取出一个sbiqf。因此,从连续的30帧中提取出一个sbiqf、一个平均面OFM映射和一个平均场景OFM映射作为多线索集成神经网络的输入。.通过总共60帧中3帧的10次幻灯片,获得了10组输入。视频中的最终活性状态是通过平均10组输入的活性检测分数来确定的。对于单个性能评估的每一个预先提出的活性特征,最后的视频评分也平均超过10个输入。对于sbiqf提取,灰度人脸帧被规范化为256X256像素,标度数A、方向数S和池块大小分别设置为4、6和64X64像素,从而使sbiqf的长度为384。在平均计算人脸/场景时,将人脸/场景视频降采样到32X32像素的分辨率中,以降低计算成本。因此,柱状平均面/场景的输入矢量长度为1024( Hence, the input vector length of the columnized average face/scene OFM map is 1024.)。

           

       为了建立多线索集成神经网络(图1),训练了三个由60个神经元组成的隐层的子网络,分别进行了3个视觉线索的训练。用于建立多线索集成神经网络。(1)训练了三个由60个神经元组成的隐层的子网络,分别进行了3个视觉线索的训练。本文利用自动编码器对所有神经网络进行预训练,然后利用标记数据对整个分类网络进行微调。神经网络的所有输入都被归一化为零均值和单位方差.自动编码器和Softmax分类器的权重衰减参数为3E^-5。稀疏性参数为0.1,稀疏惩罚项的权重为3。利用支持向量机(Svm)对支持向量机(Svm)的性能进行了比较。

 

  • 5.2. Face anti-spoofing performance evaluation

 

        分别对三种不同视觉线索所提出的三种面部活动特征的有效性进行了测试。然后在三个数据库上对所提出的基于多线索集成的人脸防欺骗方法的性能进行了评价。表1给出了所有这些结果。为了进行性能比较,表1还列出了数据库中的基线算法的结果和对付欺骗攻击的最新对策(the state-of-the-art countermeasures)。

 

      

       为了比较LBP和SBIQF,它们都使用SVM来进行活性分类。提出的sbiqf具有更好的描述真实人脸和假人脸图像质量差异的能力,在三个数据库中的hter/eer均比lbp低,用神经网络代替SVM时,sbiqf的性能得到了一定的改善。

       

 

       在重播攻击数据库上,通过融合纹理特征和基于运动的特征,两个队伍在第二届对抗2d人脸欺骗攻击的竞赛( in the 2nd competition on countermeasures to 2D face spoofing attacks)中提出了一种完美的分类方法。本文提出的基于多线索集成的方法在重放攻击数据库的测试子集上也可以达到0%的精度,在CAASA-FASD数据库上,基于LBPS的三正交平面(LBP-top)方法的性能最好,同时探索了LBP的时空分布。本文提出的基于多线索融合的方法获得了5.83%的效率,优于lbp-top方法,在3d-mad数据库上,利用深度cnn对原始人脸图像进行局部纹理特征的学习,获得了较好的识别效果。所提出的sbiqf和所提出的多线索集成神经网络都可以在三维数据库上得到0%的信息,这就意味着基于图像质量的特征能够有效地区分真实的人脸和面具。

 

     在回放攻击数据库和CAASA-FASD数据库上,本文提出的基于多线索集成的方法与所有三种输入活性特征相比,在活性检测方面都取得了很大的提高。这一结果说明了采用分层神经网络的多线索集成方法的有效性,以及Sbiqf、平均面OFM映射和平均场景OFM映射的补足性(complementarity )。

 

  • 5.3. Multi-cues fusion strategy

 

          在所提出的多线索集成神经网络中进行了瓶颈特征融合.为了研究瓶颈特征融合的有效性,对多种多线索融合策略进行了比较,如表2所示。

          原始特征融合意味着所提出的三种活性特征直接连接在特征层上,没有学习瓶颈表示。然后将连接的原始特征输入svm或神经网络进行分类。

          分数融合是将所提出的三种活性特征输入到三种不同的神经网络中进行人脸抗欺骗分类,然后对三种神经网络的得分进行Logistic回归融合。

         由于所提出的多线索集成神经网络有两个隐层,因此利用两个隐层[6060]神经元的叠加自动编码器进行原始特征融合和分数融合比较。在表2中,提出的瓶颈特征融合在所有三个数据库上都取得了最好的性能,这说明了瓶颈表示的稀疏性、降维性和单位尺度有助于特征融合。与原始特征融合策略相比,分数融合策略获得了相似甚至更好的效果,这意味着一个合适的特征融合策略对于人脸抗欺骗的多线索融合至关重要。

 

6. Conclusion and future directions

 

             随着人脸反欺骗技术的迅速发展,欺骗攻击的威胁在多样性、现实性和复杂性上也会越来越高,很难选择一种技术而不是另一种技术( It will be hard to select one technique over the others)。因此,将几种基本对策结合起来是一种很有前途的方法。本文提出了一种有效的多线索集成神经网络用于人脸欺骗,它融合了sbiqf、平均面fm映射和平均场景fm映射的瓶颈描述。在三个公共数据库上进行了广泛的实验,以评估所提出的基于多线索集成的人脸反欺骗方法。在修复攻击数据库和3D疯狂数据库上实现了真实访问和欺骗攻击之间的完美描述。在CASIA-FASD数据库上实现了5.83%的效率,优于现有的方法。与LBP算法相比,本文提出的sbiqf算法能更好地描述真实人脸和假人脸之间的图像质量离散性。与原始特征融合和分数融合相比,瓶颈特征融合策略获得了更好的性能。本文提出的人脸防欺骗方法是在2.67GHz处理器和16 GB内存的台式机上,结合c程序和MATLAB程序实现的。演示视频在https://youtu.be/151USnKDKZY上可用。本文提出的人脸防欺骗方法可以很容易地通过稀疏表示与人脸识别模块相结合[36]。如演示脸身份验证系统中所示。面部识别、用户存在和活性状态可以在4.15秒内确定,包括一个每秒30帧的2 s长视频采集过程。

在今后的工作中,还将研究其他先进的神经网络来提高人脸的抗欺骗性能,如卷积神经网络和长时记忆(LSTM)网络[37,38],这可能会更有效地学习人脸的活性特征。

 

Acknowledgements

 

我们衷心感谢Idiap研究所和中国科学院cbsr分享他们的脸反欺骗数据库。非常感谢所有评审员的有益评论。

 

Reference

[1] Y. Sun, Y. Chen, X. Wang, X. Tang, Deep learning face representation by joint

identification–verification, in: Proc. Annual Conference on Neural Information

Processing Systems, Montreal, Canada, 2014, pp. 1988–1996.

 

[2] R. Ding, D.K. Du, Z. Huang, Z. Li, K. Shang, Variational feature representation-

based classification for face recognition with single sample per person, J. Vis.

Commun. Image Represent. 30 (2015) 35–45.

 

[3] M. De Marsico, C. Galdi, M. Nappi, D. Riccio, FIRME: face and iris recognition for

mobile engagement, Image Vis. Comput. 32 (12) (2014) 1161–1172.

 

[4] N.M. Duc, B.Q. Minh, Your face is NOT your password, in: Proc. Conference on

Black Hat, Las Vegas, USA, 2009, pp. 1–16.

 

[5] J. Galbally, S. Marcel, J. Fierrez, Biometric antispoofing methods: a survey in

face recognition, IEEE Access 2 (2014) 1530–1552.

 

[6] I. Chingovska, A. Anjos, S. Marcel, On the effectiveness of local binary patterns

in face anti-spoofing, in: Proc. International Conference of the Biometrics

Special Interest Group, Darmstadt, Germany, 2012, pp. 1–7.

 

[7] Z. Zhang, J. Yan, S. Liu, Z. Lei, D. Yi, S.Z. Li, A face anti-spoofing database with

diverse attacks, in: Proc. International Conference on Biometrics, New Delhi,

India, 2012, pp. 26–31.

 

[8] N. Erdogmus, S. Marcel, Spoofing in 2D face recognition with 3D masks and

anti-spoofing with Kinect, in: Proc. IEEE International Conference on

Biometrics: Theory, Applications and Systems, Arlington, USA, 2013, pp. 1–6.

 

[9] I. Chingovska, The 2nd competition on counter measures to 2D face spoofing

attacks, in: Proc. International Conference on Biometrics, Madrid, Spain, 2013,

pp. 1–6.

[10] J. Maatta, A. Hadid, M. Pietikainen, Face spoofing detection from single images

using micro-texture analysis, in: Proc. International Joint Conference on

Biometrics, Washington DC, USA, 2011, pp. 1–7.

 

[11] S. Bharadwaj, T.I. Dhamecha, M. Vatsa, R. Singh, Computationally efficient face

spoofing detection with motion magnification, in: Proc. IEEE Conference on

Computer Vision and Pattern Recognition, Portland, USA, 2013, pp. 105–110.

 

[12] G. Easley, D. Labate, W.Q. Lim, Sparse directional image representations using

the discrete shearlet transform, Appl. Comput. Harmon. Anal. 25 (1) (2008)

25–46.

 

[13] T.F. Pereira, J. Komulainen, A. Anjos, J.M.D. Martino, A. Hadid, M. Pietikainen, S.

Marcel, Face liveness detection using dynamic texture, EURASIP J. Image Video

Process. 1 (2014) 2014.

 

[14] J. Komulainen, A. Hadid, M. Pietikainen, A. Anjos, S. Marcel, Complementary

countermeasures for detecting scenic face spoofing attacks, in: Proc.

International Conference on Biometrics, Madrid, Spain, 2013, pp. 1–7.

 

[15] G.E. Hinton, R.R. Salakhutdinov, Reducing the dimensionality of data with

neural networks, Science 313 (5786) (2006) 504–507.

 

[16] D. Yu, M.L. Seltzer, Improved bottleneck features using pretrained deep neural

networks, in: Proc. Annual Conference of the International Speech

Communication Association, Florence, Italy, 2011, pp. 237–240.

 

[17] D.J. Kim, K.W. Chung, K.S. Hong, Person authentication using face, teeth and

voice modalities for mobile device security, IEEE Trans. Consumer Electron. 56

(4) (2010) 2678–2685.

 

[18] Z. Zhang, D. Yi, Z. Lei, S.Z. Li, Face liveness detection by learning multispectral

reflectance distributions, in: Proc. IEEE International Conference on Automatic

Face and Gesture Recognition, Santa Barbara, USA, 2011, pp. 436–441.

 

[19] A. Lagorio, M. Tistarelli, M. Cadoni, C. Fookes, S. Sridharan, Liveness detection

based on 3D face shape analysis, in: Proc. International Workshop on

Biometrics and Forensics, Lisboa, Portugal, 2013, pp. 1–4.

 

[20] L. Sun, W. Huang, M. Wu, TIR/VIS correlation for liveness detection in face

recognition, in: Proc. International Conference on Computer Analysis of Images

and Patterns, Seville, Spain, 2011, pp. 114–121.

 

[21] J. Galbally, S. Marcel, J. Fierrez, Image quality assessment for fake biometric

detection: application to iris, fingerprint, and face recognition, IEEE Trans.

Image Process. 23 (2) (2014) 710–724.

 

[22] J. Li, Y. Wang, T. Tan, A.K. Jain, Live face detection based on the analysis of

Fourier spectra, Proc. SPIE 5404 (2004) 296–303.

 

[23] D. Menotti, G. Chiachia, A. Pinto, W.R. Schwartz, H. Pedrini, A.X. Falcao, A.

Rocha, Deep representations for iris, face, and fingerprint spoofing detection,

IEEE Trans. Inform. Forensics Sec. 10 (4) (2015) 864–879.

 

[24] G. Pan, L. Sun, Z. Wu, S. Lao, Eyeblink-based anti-spoofing in face recognition

from a generic webcamera, in: Proc. International Conference on Computer

Vision, Rio de Janeiro, Brazil, 2007, pp. 1–8.

 

[25] K. Kollreider, H. Fronthaler, J. Bigun, Non-intrusive liveness detection by face

images, Image Vis. Comput. 27 (3) (2009) 233–244.

 

[26] W. Bao, H. Li, N. Li, W. Jiang, A liveness detection method for face recognition

based on optical flow field, in: Proc. International Conference on Image

Analysis and Signal Processing, Taizhou, China, 2009, pp. 233–236.

 

[27] Y. Kim, J.H. Yoo, K. Choi, A motion and similarity-based fake detection method

for biometric face recognition systems, IEEE Trans. Consumer Electron. 57 (2)

(2011) 756–762.

 

[28] A. Anjos, M.M. Chakka, S. Marcel, Motion-based counter-measures to photo

attacks in face recognition, IET Biomet. 3 (3) (2014) 147–158.

 

[29] P. Viola, M. Jones, Rapid object detection using a boosted cascade of simple

features, in: Proc. IEEE Conference on Computer Vision and Pattern

Recognition, Kauai, USA, 2001, pp. I-511–I-518.

 

[30] Y. Bengio, P. Lamblin, D. Popovici, H. Larochelle, Greedy layer-wise training of

deep networks, in: Proc. Annual Conference on Neural Information Processing

Systems, Vancouver, Canada, 2007, pp. 153–160.

 

[31] Y. Li, L.M. Po, X. Xu, L. Feng, No-reference image quality assessment using

statistical characterization in the shearlet domain, Signal Process.: Image

Commun. 29 (7) (2014) 748–759.

 

[32] G. Kutyniok, D. Labate, Shearlets, first ed., Birkhäuser-Verlag, Boston, 2012.

 

[33] C. Liu, Beyond Pixels: Exploring New Representations and Applications for

Motion Analysis (Doctoral thesis), Massachusetts Institute of Technology,

2009.

 

[34] C.C. Chang, C.J. Lin, LIBSVM: a library for support vector machines, ACM Trans.

Intell. Syst. Technol. 2 (3) (2011) 27-1–27-27.

 

[35] J. Yang, Z. Lei, S. Liao, S.Z. Li, Face liveness detection with component

dependent descriptor, in: Proc. International Conference on Biometrics,

Madrid, Spain, 2013, pp. 1–6.

 

[36] J. Wright, A.Y. Yang, A. Ganesh, S.S. Sastry, Y. Ma, Robust face recognition via

sparse representation, IEEE Trans. Pattern Anal. Mach. Intell. 31 (2) (2008)

210–227.

 

[37] G. Chen, C. Parada, T.N. Sainath, Query-by-example keyword spotting using

long short-term memory networks, in: Proc. International Conference on

Acoustics, Speech and Signal Processing, Brisbane, Australia, 2015, pp. 5236–

5240.

 

[38] Y. Taigman, M. Yang, M.A. Ranzato, L. Wolf, Deepface: closing the gap to

human-level performance in face verification, in: Proc. IEEE Conference on

Computer Vision and Pattern Recognition, Columbus, USA, 2014, pp. 1701–

1708.

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值