![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
------降维和属性选择
文章平均质量分 90
zhengjihao
这个作者很懒,什么都没留下…
展开
-
LDA线性判别分析
线性判别分析(Linear Discriminant Analysis)是一种经典的线性学习方法,在二分类问题上因为最早由Fisher提出,也称”Fisher判别分析”。 线性判别分析的思想朴素:给定训练数据集,设法将样本投影到直线上,使得同类样本的投影点尽可能接近、异类样本的投影点尽可能远离。在对新样本进行分类时,将其投影到同样的这条直线上,在根据投影点的位置来确定新样本的类别。 示意图如下原创 2017-04-19 18:00:52 · 858 阅读 · 0 评论 -
协方差矩阵的向量表示推导
多维随机变量的协方差矩阵对多维随机变量X=[X1,X2,…,Xn]TX=[X_1,X_2,\dots,X_n]^T,我们往往需要计算各维度之间的协方差,这样协方差就组成了一个n×nn\times n的矩阵,称为协方差矩阵。协方差矩阵是一个对角矩阵,对角线上的元素是各维度上随机变量的方差。 我们定义协方差为Σ\Sigma, 矩阵内的元素Σij\Sigma_{ij}为 Σ=cov(Xi,Xj)=原创 2017-09-19 15:50:10 · 12938 阅读 · 0 评论 -
主成分分析(PCA)最大方差解释最小平方误差解释
原文链接:http://blog.csdn.net/han____shuai/article/details/50573066在这一篇之前的内容是《Factor Analysis》,由于非常理论,打算学完整个课程后再写。在写这篇之前,我阅读了PCA、SVD和LDA。这几个模型相近,却都有自己的特点。本篇打算先介绍PCA,至于他们之间的关系,只能是边学边体会了。PCA以前也叫做Princip转载 2017-09-20 10:48:15 · 2955 阅读 · 0 评论 -
奇异值分解(SVD)原理详解及推导
转载请声明出处http://blog.csdn.net/zhongkejingwang/article/details/43053513 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系。前段时间看了国外的一篇文章,叫A Singularly Valuable Decomposition The SVD of a Matrix,转载 2017-09-20 12:14:18 · 428 阅读 · 0 评论