机器学习基础
lilong117194
“The world is not made of strings , but is made of things.”
展开
-
支持向量机的理解
支持向量机学了很久,有些地方始终没明白,觉得很有必要总结一下:1. 线性可分支持向量机:然后将中间的平面(也可以是分离平面或超平面)往左平移,当第一次经过一个数据点的时候,就不能再平移了,算是达到了最大的限度,意思就是如果再平移,将有点在该平移平面的右侧,将达不到分离的效果了。当把中间的这个平面往右平移经过同样的步骤,这样就又得到了两个支持平面(这里暂且这样叫),这时的效果如下:支持向量机给出的标准原创 2017-10-20 13:49:00 · 1198 阅读 · 0 评论 -
数据的中心化和标准化
简介: 意义:数据中心化和标准化在回归分析中是取消由于量纲不同、自身变异或者数值相差较大所引起的误差。 原理:数据标准化:是指数值减去均值,再除以标准差; 数据中心化:是指变量减去它的均值。 目的:通过中心化和标准化处理,得到均值为0,标准差为1的服从标准正态分布的数据。在回归问题和一些机器学习算法中,以及训练神经网络的过程中,还有PCA等通常需要对原始数据进行中心化(Zero-center原创 2017-11-17 15:06:09 · 31524 阅读 · 4 评论 -
奇异值分解SVD与PCA
首先:奇异值分解是一个有着很明显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。1. 奇异值与特征值基础知识特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。1.1 特征值如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式: Av=λvAv=\lambda v 这时候λ就被称为特征向量v对原创 2017-11-20 21:09:34 · 1726 阅读 · 0 评论