Mathematics
code_caq
机器学习、计算机视觉爱好者。
努力学习的新人!
展开
-
机器学习中距离度量的方法
机器学习中,有很多地方用到了距离,来评价相关性什么的……比如KNN,K-means等……看到一篇总结各种距离的很好的文章……参考:http://www.cnblogs.com/daniel-D/p/3244718.html我们常见的就是欧氏距离,但其实距离其实有很多种度量方式,定义一个距离D(x,y)需要满足以下准则:(1)D(x,y)=0 到自身距离为0(2)D(转载 2017-04-03 10:38:11 · 1237 阅读 · 0 评论 -
线性回归模型中的最小二乘法线性求解(Least Square Method)
最小二乘法:使平方误差最小。相比于梯度下降法,最小二乘法有解析形式的解,比较直观。本文主要讨论线性回归模型中最小二乘法求解。参考:斯坦福大学Andrew Ng《机器学习》第二集附:求解过程中用到的一些代数知识(tr表示矩阵的迹,即一个方阵对角线元素之和)原创 2017-03-28 16:18:01 · 3409 阅读 · 0 评论 -
主成分分析(PCA)原理及推导
出处http://blog.csdn.net/zhongkejingwang/article/details/42264479什么是PCA? 在数据挖掘或者图像处理等领域经常会用到主成分分析,这样做的好处是使要分析的数据的维度降低了,但是数据的主要信息还能保留下来,并且,这些变换后的维两两不相关!至于为什么?那就接着往下看。在本文中,将会很详细的解答这些问题:PCA、SVD、特征转载 2017-05-05 11:33:18 · 580 阅读 · 0 评论 -
贝叶斯公式(Bayes)的应用
updating……1.某道选择题有三个选项A,B,C,所有选项可能性相同。甲乙两人分别解答这道题,甲的正确率是0.9,乙的正确率是0.5,两人都选择A。那么这道题正确答案是A的概率是?解答:定义一下事件,设甲乙独立 A1={甲选A},A2={甲选B},A3={甲选C} B1={乙选A},B2={乙选B},B3={乙选C} C1={正确答案是A},C2={正确答案是B},C3={正确答案是C}原创 2017-05-03 20:38:34 · 1471 阅读 · 0 评论 -
K-L散度(相对熵)总结
之前总结过KL散度,但不是很具体,现在单独总结一下它 参考:http://blog.csdn.net/acdreamers/article/details/44657745K-L散度(Kullback-Leible) ↓ ↓ ↓百度上是这么解释的↓ ↓ ↓ 感觉很有道理的样子!在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative原创 2017-05-03 20:09:21 · 8980 阅读 · 0 评论