目标检测的图像特征提取之(一)HOG特征 (参见http://blog.csdn.net/liulina603/article/details/8291093)
方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了极大的成功。需要提醒的是,HOG+SVM进行行人检测的方法是法国研究人员Dalal在2005的CVPR上提出的,而如今虽然有很多行人检测算法不断提出,但基本都是以HOG+SVM的思路为主。
Q1:什么是SVM?(参见http://zh.wikipedia.org/wiki/SVM)
支持向量机(英语:Support Vector Machine,常简称为SVM)是一种监督式学习的方法,可广泛地应用于统计分类以及回归分析。
支持向量机属于一般化线性分类器,也可以被认为是提克洛夫规范化(Tikhonov Regularization)方法的一个特例。这族分类器的特点是他们能够同时最小化经验误差与最大化几何边缘区,因此支持向量机也被称为最大边缘区分类器。
Q1.0 监督式学习 (参见http://zh.wikipedia.org/wiki/監督式學習)
Q1.1:线性分类器(参见http://zh.wikipedia.org/wiki/线性分类器)
在机器学习领域,分类的目标是指将具有相似特征的对象聚集。而一个线性分类器则透过特征的线性组合来做出分类决定,以达到此种目的。对象的特征通常被描述为特征值,而在向量中则描述为特征向量。
Q1.1.1 机器学习 (参见http://zh.wikipedia.org/wiki/机器学习)
Q1.2:提克洛夫规范化(Tikhonov Regularization) (参见http://en.wikipedia.org/wiki/Tikhonov_regularization)
提克洛夫:Andrey Nikolayevich Tikhonov (似乎翻译为吉洪诺夫更常见)(参见http://en.wikipedia.org/wiki/Andrey_Nikolayevich_Tychonoff)
以下是 Tikhonov regularization的内容介绍:
Tikhonov regularization, named for Andrey Tikhonov, is the most commonly used method of regularization of ill-posed problems. In statistics, the method is known as ridge regression, and, with multiple independent discoveries, it is also variously known as the Tikhonov–Miller method, the Phillips–Twomey method, the constrained linear inversion method, and the method of linear regularization. It is related to the Levenberg–Marquardt algorithm for non-linear least-squares problems.
Q1.2.--1ill-posed problems(Well-posed problem) (参见http://en.wikipedia.org/wiki/Ill-posed_problem)
Q1.2.0 Levenberg–Marquardt algorithm (参见http://en.wikipedia.org/wiki/Levenberg-Marquardt)
Q1.2.1 non-linear least-squares 非线性最小二乘法(参见http://en.wikipedia.org/wiki/Non-linear_least_squares)
Non-linear least squares is the form of least squares analysis used to fit a set of m observations with a model that is non-linear in n unknown parameters (m > n). It is used in some forms of non-linear regression. The basis of the method is to approximate the model by a linear one and to refine the parameters by successive iterations. There are many similarities to linear least squares, but also some significant differences.
Q1.2.1 linear least squares 最小二乘法(参见http://zh.wikipedia.org/wiki/最小二乘法,到这里终于有中文啦,妈的,中国的数学家难道不看wiki吗?)
看了下百度百科(http://baike.baidu.com/link?url=7XXicuNB412rRKEcBmXM9C8GWA7881TJov2YhfJOkxBAkczAfZ8OC0AHnX0I2aV5)
。。。。。。(此处略去1万字)
当最小时,可用函数 φ 对a0、a1求偏导数,令这两个偏导数等于零。
。。。。。。。(此处略去1万字)
Q1.2.1.1 偏导数 (参见http://baike.baidu.com/view/1029405.htm)
在数学中,一个多变量的函数的偏导数,就是它关于其中一个变量的导数而保持其他变量恒定(相对于全导数,在其中所有变量都允许变化)。偏导数在向量分析和微分几何中是很有用的。
Q1.2.1.1.1 导数 这个就不讲了,但是需要列举关于《基本初等函数的导数公式的推导过程》的内容。参见:
http://wenku.baidu.com/link?url=bO0Oszrv7Y65HRFXJQX4-0ZUZ-11oj6QO5fVIkSOH2k-w9j2jyKSuRVxSDYTNVzoq0SDun1MSYpd-Xux-9kmPBS2PAoSC0-QGTKmf7L07-m
其中这个过程叫做二项式定理:
Q1.2.1.1.1.1 二项式定理(参见:http://baike.baidu.com/link?url=JAGdBNXPgOuLTxrppG-IlgP0boNPNRq5dJsCBGOIY_vq9YQRS6Zq0lBouFRUux4p,回家自己证明去吧)
以上就是今天的学习成果,看来还是应该看英文版的,看中文的还是和程序对不上。