人脸识别概念杂记

https://www.cnblogs.com/LLansing/archive/2012/05/08/2490096.html

 

Gabor特征:通过Gabor变换获取的特征。

Gabor变换:是在20世纪40年代有Gabor提出的一种利用高斯函数作为窗口函数的加窗傅里叶变换。Gabor变换可以有效的获取空间和方向等视觉信息,使得原始图像灰度变化得意变大,进而模拟出大脑皮层中简单细胞感受野的轮廓。这样人脸的一些关键区域的局部特征将被强化从而有利于人脸图像的分类。正因如此,Gabor变换在人脸识别中广受关注。

    属于加窗傅立叶变换,Gabor函数可以在频域不同尺度、不同方向上提取相关的特征。

    Gabor变换的本质实际上还是对二维图像求卷积。因此二维卷积运算的效率就直接决定了Gabor变换的效率。

    Gabor变换只能算作传统傅里叶分析和小波变换间的过渡方法,严格地讲gabor变换算不上小波,因为构不成正交基。

模式识别的一个典型问题:识别系统的性能不仅在于选择合适的分类器,而且在更大程度上取决于用什么样的特征描述特征。理论上来讲,特征提取的目的是为了获得既能最小化类内差异又能最大化类间差异的属性。

特征提取:对某一模式的组测量值进行变换,以突出该模式具有代表性特征的一种方法。通过影像分析和变换,以提取所需特征的方法。(主要用于模式识别中)。

模式识别:模式识别(Pattern Recognition)是指对表征事物或现象的各种形式的(数值的、文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程,是信息科学和人工智能的重要组成部分。

       

主成分分析(PCA):主成分分析(Principal Component Analysis,PCA), 将多个变量通过线性变换以选出较少个数重要变量的一种多元统计分析方法。又称主分量分析。(特征提取中的常用方法。)

  原理:设法将原来变量重新组合成一组新的互相无关的几个综合变量,同时根据实际需要从中可以取出几个较少的综合变量尽可能多地反映原来变量的信息的统计方法叫做主成分分析或称主分量分析,也是数学上处理降维的一种方法。

隐马尔可夫模型http://blog.renren.com/share/249526272/7568433645(这个地址非常不错,讲解生动有趣。)

启发式模型:基于启发式模型的方法首先抽取几何形状、灰度、纹理等特征,然后检验它们是否符合人脸的先验知识。

人脸模式的特征包括肤色特征和灰度特征

肤色模型:常用的肤色模型有高斯模型、混合高斯模型和直方图模型。此外,还有直接利用几何参数描述肤色区域分布范围的模型、三维投影模型、基于神经网络的肤色模型等。此外,也有同时考虑“肤色”与“非肤色”像素分布的基于贝叶斯方法的模型。

灰度特征:包括人脸轮廓特征、人脸灰度分布特征(镶嵌图特征、直方图特征)、器官特征(对称性等)、模板特征等。

分类器:他的设计目标是在通过学习后,可自动将数据分到已知类别。分类器是一种机器学习程序,因此归为人工智能的范畴中。人工智能的多个领域,包括数据挖掘,专家系统,模式识别都用到此类程序。对于分类器,其实质为数学模型。针对模型的不同,目前有多种分支,包括:Bayes分类器,BP神经网络分类器,决策树算法,SVM(支持向量机)算法等。

A/D转换:AD转换就是模数转换,顾名思义,就是把模拟信号转换成数字信号。

特征空间:特征以矢量形式表示。矢量可以看做是欧式空间中的一个点,这个空间称为特征空间。所谓空间,在数学意义上讲就是一个集合。整个模式识别问题可以看做是多个空间之间的转换问题。

特征矢量:在统计模式识别中,模式的特征一般表示为一组数字,这组数字构成一个矢量,称为特征矢量。

维数灾难:模式维数很大,往往导致处理困难,处理时间长,费用高,有时甚至直接用于分类是不可能的,即所谓维数灾难。

支持向量机(SVM):是Vapnik等提出的基于结构风险最小化原理的统计学习理论,用于分类与回归问题。

欧氏距离:也称欧几里得度量、欧几里得度量,是一个通常采用的距离定义,它是在m维空间中两个点之间的真实距离。在二维和三维空间中的欧氏距离的就是两点之间的距离。

几何归一化:是指根据人脸定位结果将图像中的人脸变化到同一位置和大小。

灰度归一化:指对图像进行补偿等处理,以克服光照变化的影响。

---------------------------------------------------------------------------------------------------

检测:指对人脸图像进行检测和定位的过程。

拒检:指不能正常检测到人脸或人脸不能定位以及人脸检测失败。

拒检率:指被拒检的人脸图像占统计总数的比例。

比对:指一人脸特征与另一人脸特征比较的过程。

匹配相似度:人脸特征比对的输出结果,代表参与比对的两个人脸特征的相似程度。用0-1之间的小数表示。

错误拒绝:指定某匹配相似度为判定阀值,在来自于同一个个体的人脸之间的比对,其结果小于设定的阀值。即指比对错误。

错误接受:同上,一个没有被授权的人被接受。

错误拒绝率(FRR):错误拒绝的比例。

错误接受率(FAR):错误接受的比例。

相等错误率:指在某给定匹配相似度下,FAR与FRR相等时的错误率,即FAR=FRR

------------------------------------------------------------------------------------------------------

LGBP:local Gabor binary patterns。

Adaboost:是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。

KL变换的特性:去相关特性,能量集中性,最佳特性;无快速算法,且变换矩阵随不同的样值集合而不同(缺点)。

奇异值分解:是线性代数中一种重要的矩阵分解,是矩阵分析中正规矩阵酉对角化的推广。在信号处理、统计学等领域有重要应用。

Kernel PCA:将人脸对应的向量映射到高维空间中,然后应用PCA。这种做法避免了高维统计量计算中的组合爆炸问题,同时,还考虑了高维相关性。

线性分解:在最基本的线性代数中,我们可以把线性空间中的一个向量分解成某些基向量的合成。http://blog.163.com/niujiashu@126/blog/static/1002930422010024104141547/(这篇文章感觉不错,推荐下。)

结构风险最小化:所谓的结构风险最小化就是在保证分类精度(经验风险)的同时,降低学习机器的 VC 维,可以使学习机器在整个样本集上的期望风险得到控制。

经验风险最小化:利用已知的经验数据(训练样本)来计算得到的误差,被称之为经验风险。用对参数求经验风险来逐渐逼近理想的期望风险的最小值,就是我们常说的经验风险最小化(Empirical risk minimization,ERM)原则。

基于统计学习理论的支持向量机算法研究http://blog.sina.com.cn/s/blog_4b700c4c0100pidr.html(感觉讲解比较细致!)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值