OPENCV(C++) 学习时的那些事

vs2012下载加序列号:
http://blog.csdn.net/wj2014/article/details/19193235

配置教程:

http://46aae4d1e2371e4aa769798941cef698.devproxy.yunshipei.com/dcrmg/article/details/51809614

C++: void equalizeHist(InputArray src, OutputArray dst);

这个函数 的 作用是:
The algorithm normalizes the brightness and increases the contrast of the image

下为转载的关于C++ 中Vector的详解:

http://blog.csdn.net/hancunai0017/article/details/7032383

下面为转载的关于C++中的&的引用 与取地址详解:

http://blog.csdn.net/passtome/article/details/7937141

总结一下自己SRTP项目的思路:

1.在前人训练好 的分类器的基础上最大化实时性
通过激光雷达找到ROI(即行人最可能出现的区域),缩小Image面积来减少运算时间,提高实时性。
2.之后视时间节点创建自己的分类器 。

简单 来说:先使用,后学习。

一个 误区:

adaboost 与SVM是机器学习的算法实现;
HOG 与 Haar 是分类时的 特征体现;

简单来说 :

我们可以根据HOG 或者 Haar 特征 来通过adaboost 和SVM算法
等实现分类器的构建。

下面 为 wiki上 的关于级联分类器的解释:

Cascading is a particular case of ensemble learning based on the concatenation of several Classifiers, using all information collected from the output from a given classifier as additional information for the next classifier in the cascade. Unlike voting or stacking ensembles, which are multiexpert systems, cascading is a multistage one.

Cascading Classifiers are trained with several hundred “positive” sample views of a particular object and arbitrary “negative” images of the same size. After the classifier is trained it can be applied to a region of an image and detect the object in question. To search for the object in the entire frame, the search window can be moved across the image and check every location for the classifier. This process is most commonly used in image processing for object detection and tracking, primarily facial detection and recognition.

下面为wiki上的adaboost 算法的概念解释:

AdaBoost,是英文”Adaptive Boosting”(自适应增强)的缩写,是一种机器学习方法,由Yoav Freund和Robert Schapire提出。[1]AdaBoost方法的自适应在于:前一个分类器分错的样本会被用来训练下一个分类器。AdaBoost方法对于噪声数据和异常数据很敏感。但在一些问题中,AdaBoost方法相对于大多数其它学习算法而言,不会很容易出现过拟合现象。AdaBoost方法中使用的分类器可能很弱(比如出现很大错误率),但只要它的分类效果比随机好一点(比如两类问题分类错误率略小于0.5),就能够改善最终得到的模型。而错误率高于随机分类器的弱分类器也是有用的,因为在最终得到的多个分类器的线性组合中,可以给它们赋予负系数,同样也能提升分类效果。

AdaBoost方法是一种迭代算法,在每一轮中加入一个新的弱分类器,直到达到某个预定的足够小的错误率。每一个训练样本都被赋予一个权重,表明它被某个分类器选入训练集的概率。如果某个样本点已经被准确地分类,那么在构造下一个训练集中,它被选中的概率就被降低;相反,如果某个样本点没有被准确地分类,那么它的权重就得到提高。通过这样的方式,AdaBoost方法能“聚焦于”那些较难分(更富信息)的样本上。在具体实现上,最初令每个样本的权重都相等,对于第k次迭代操作,我们就根据这些权重来选取样本点,进而训练分类器Ck。然后就根据这个分类器,来提高被它分错的的样本的权重,并降低被正确分类的样本权重。然后,权重更新过的样本集被用于训练下一个分类器Ck[2]。整个训练过程如此迭代地进行下去。

下面是wiki上关于Haar-like feature 的解释:

哈尔特征使用检测窗口中指定位置的相邻矩形,计算每一个矩形的像素和并取其差值。然后用这些差值来对图像的子区域进行分类。

下面是转载的HOG特征的解释:

http://blog.csdn.net/zouxy09/article/details/7929348
它通过计算和统计图像局部区域的梯度方向直方图来构成特征

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值