![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
其他
文章平均质量分 63
Issac_33
对未知的追求是生活的乐趣所在
展开
-
PCA学习笔记
http://blog.csdn.net/xiaojidan2011/article/details/11595869 这篇文章讲的不能再好了,mark一下,摘两句话,然后做一下总结。1、两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量为基所表示的空间中去。2、将一组N维向量降为K维(K大于0,小于N),其目标是选择K个单位(模为1)正交基,使得原始数据变换到这组基上后,原创 2017-03-27 15:09:03 · 341 阅读 · 0 评论 -
(未完待续)Statistical Distance学习笔记
关于KL Divergence初识,看这两篇: http://blog.csdn.net/buaalei/article/details/46516211 http://blog.csdn.net/acdreamers/article/details/44657745 给出了KLD的基本性质以及简单证明。 KLD主要衡量了在同一数据空间中,概率分布Q相对于真实概率分布P的差异。但是KLD的非原创 2017-03-27 17:22:53 · 1165 阅读 · 0 评论