![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
machine learning
文章平均质量分 62
dolby_xiong
这个作者很懒,什么都没留下…
展开
-
非参数估计(持续……慎入!)
进来经常遇到非参数估计的问题——k近邻,meanshift,核密度估计等,因此,打算这两天把这个部分的理论知识系统的学习一遍,并在此做好感受。1、引子:关于男女身高差异的问题。这是我在某网络公司面试机器学习岗位时,面试官问我的一个问题:如何度量男女身高分布的差异性?我当时的第一反应是均值和方差。但是,均值和方差是在默认数据服从正态分布的情况下的统计量,那男女身高的分布都服从原创 2012-06-07 17:41:17 · 2319 阅读 · 0 评论 -
CVPR2012
CVPR2012文章链接:http://www.cvpr2012.org/program-details/papers好多,看的头都有些晕。以后到这里边挑几篇看看自己感兴趣的吧。原创 2012-05-24 11:14:20 · 616 阅读 · 0 评论 -
各种分布及应用场合(建模对象)
1、高斯分布高斯分布是最常见的分布,我现在觉得高斯分布中最难的就是,如何说服别人,你假设某个分布是高斯,是有依据的,而不是一个所谓的“经验假设”。高斯分布的概率密度函数为:各种各样的心理学测试分数、各种各样的无力现象、测量误差等都被发现近似地服从正态分布。尽管这些现象的根本原因经常是未知的, 但是理论上可以证明如果把许多小作用加起来看做一个变量,那么这个变量服从正态分布。由原创 2012-08-26 11:34:34 · 3029 阅读 · 0 评论 -
估计子的性能——从最大似然估计到方差定义式为什么以n-1作为分母
我们都知道,给定N个一维实数空间上的样本点{ xi,i=1,2,3... },假定样本点服从单峰高斯分布,那么,最大似然估计的参数表达式为:期望: 方差:可是,你是否注意过,在我们从小接受到的方差定义公式,却与最大似然估计的不一样,一个分母为n-1,一个为n。这是不是意味着最大似然估计的不准确?如何衡量这种不准确?换个角度,更进一步,方差的定义公式为什么要除以n-1?本文将从最原创 2012-06-11 10:20:30 · 3865 阅读 · 0 评论 -
凸函数的性质
今天公司开机器学习的讨论班,期间,一个同学问道:为什么线性回归的均方误差函数是凸的(好像是这个吧)?我一激动来了一句“凸函数被多项式复合也是凸函数”,这个结论是不对的。应该是“凸函数在仿射变化下保持凸性不变”,也就是x^2是凸函数,那么(a1*x1+a2*x2+...an*xn)^2也是凸函数。 按照维基百科的观点,凸函数的性质,总结起来不过下面三点:http://zh.wikipedia原创 2012-09-13 21:55:10 · 2494 阅读 · 0 评论 -
K近邻分类算法与kdTree实现的伪代码(构造kdTree 和 kdTree上搜索最近邻)
今天阅读了李航博士的《统计学习方法》第三章:k近邻分类方法,其中讲到kdTree的搜索时,没有特别弄清楚,遂在网上找到这样一篇文章,有详细的伪代码,理解轻松。链接为:http://underthehood.blog.51cto.com/2531780/687160全文如下:By RaySaint 2011/10/12动机先前写了一篇文章《SIFT算法研究》讲了讲SI转载 2012-10-23 16:41:44 · 6227 阅读 · 0 评论