![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
图像.模式识别.机器学习
dym123_dym
爱奇思妙想,异想天开
展开
-
How to train models of Object Detection with Discriminatively Trained Part Based Models
http://blog.csdn.net/pozen/article/details/7103412我把补充的内容放最前面,显眼!补充:1 关于负样本。框架里面提取负样本的方式是选择样本库中不包含训练类型的图片为负样本。我直接用库里面的图片。我用1000张左右的负样本,自己准备的话也简单没太多好说的。提供图片路径就OK了,它自己会裁。 2 关于自己准备正样转载 2013-04-05 19:36:02 · 533 阅读 · 0 评论 -
在windows下运行Felzenszwalb的Discriminatively Trained Deformable Part Models matlab代码
http://blog.csdn.net/pozen/article/details/7023742Felzenszwalb的Discriminatively Trained Deformable Part Models URL:http://www.cs.brown.edu/~pff/latent/据说是目前最好的object detection method。我自己试了一下,效果真的不转载 2013-04-05 17:42:40 · 671 阅读 · 0 评论 -
深入理解SVM之对偶问题
当年看SVM时,对SVM最优化求解过程中对偶问题的一些方面还有些迷糊,今天看到有人写的一系列博客,用来深入了解这方面比较好,转载如下,源地址为:http://blog.csdn.net/vivihe0/article/details/7019826。 http:转载 2013-04-05 20:52:03 · 1492 阅读 · 0 评论 -
机器学习中的算法(2)-支持向量机(SVM)基础
http://www.cnblogs.com/LeftNotEasy/archive/2011/05/02/basic-of-svm.html版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com 前言:转载 2013-04-08 16:09:54 · 460 阅读 · 0 评论 -
计算机视觉领域的一些牛人博客,超有实力的研究机构等的网站链接
blog.csdn.net/carson2005 以下链接是本人整理的关于计算机视觉(ComputerVision, CV)相关领域的网站链接,其中有CV牛人的主页,CV研究小组的主页,CV领域的paper,代码,CV领域的最新动态,国内的应用情况等等。打算从事这个行业或者刚入门的朋友可以多关注这些网站,多了解一些CV的具体应用。搞研究的朋友也可以从中了解到很多牛人的研究动态、招转载 2013-04-11 15:05:32 · 1039 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列
http://blog.csdn.net/zouxy09/article/details/8775360Deep Learning(深度学习)学习笔记整理系列zouxy09@qq.comhttp://blog.csdn.net/zouxy09作者:Zouxyversion 1.0 2013-04-08 声明:1)该Deep Learning的学习系列是转载 2013-04-12 11:33:34 · 549 阅读 · 0 评论 -
Structured Learning和Structured SVM的学习(上)
http://bubblexc.com/y2011/503/以前就听说过Structured Learning,但只知道其大体的概念。听师兄说现在用的挺多的,于是前一段时间断断续续的看了有关这方面的一些资料,在此总结一下。在利用机器学习方法建模时,我们往往是寻找一个映射函数 f:X -> Y,将输入X 映射为输出Y。输入X的形式是多种多样的,但在“常规”的机器学习方法中,输出Y是一个n转载 2013-04-14 09:42:54 · 1069 阅读 · 0 评论 -
Structured Learning和Structured SVM的学习(下)
http://bubblexc.com/y2011/547/在上面的部分中,经验损失为0意味着我们得到了一个完全符合训练样本要求的discriminative function f,即∀(xi,yi),f(xi)=yi。然而,多数时候,我们无法得到满足前面式子中所有约束的可行解。因此,我们还是借鉴SVM 的思想,在优化问题中加入松弛变量,这样就使模型不必完全拟合训练集中的样本,从而得到转载 2013-04-14 09:46:38 · 1289 阅读 · 0 评论 -
数字图像处理与机器视觉张铮版[code]
数字图像处理与机器视觉张铮版[code]人民邮电出版社http://emuch.net/bbs/viewthread.php?tid=6064450&fpage=1原创 2013-06-29 11:04:59 · 1970 阅读 · 0 评论