![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
cher12301
这个作者很懒,什么都没留下…
展开
-
#机器学习公式推导#logistics 回归
logistics回归虽然名字叫回归,但其实是一种分类算法,有很多优点,1、判别式算法,直接对数据进行建模,不需要考虑数据的分布,也就是不需要考虑Y的先验这个问题。2、实现简单,目标函数是可导的凸函数,方便求最优解。以下我们以二分类为例介绍这一个算法。一说到二分类问题,我们自然会联想到分段函数(或称阶跃函数),设定一个阈值,大于阈值为正例,小于阈值为负例,图像如下:可以很明显的发现一个问题...原创 2019-08-25 18:41:37 · 236 阅读 · 0 评论 -
#机器学习公式推导#SVM
模型介绍支持向量机是一种判别模型。在类别划分的时候,我们希望能找到这样一个超平面,这个超平面对训练样本的泛化能力最好,也就是对极端异常值的容忍度最好。那么如何达到这个目的呢?SVM的方法是找到距离这个超平面最近的且分类正确的点,这个点就叫支持向量,让这个点到超平面的距离最远,这样一来,超平面的泛化能力就能达到最优。模型推导我们定义超平面为公式1.1定义训练集中的任意一点X到超平面的距离为...原创 2019-08-26 20:24:05 · 214 阅读 · 0 评论 -
#机器学习公式推导#LDA
LDA是一种降维的算法,也可以用来做特征选择和聚类。以二维平面为例,平面上有2类样本点,我们希望将二维平面上的2类样本点投影到一条直线上,从二维到一维,这可不就降维了吗?那么怎么找到最合适的投影的直线呢?我们期望的目标是,投影之后,同类之间靠得更近,异类之间离得更远,也就是类内小,类间大。LDA的思想不是太难,也不涉及太难的理论原则,所以下面我们直接进入稍微麻烦一点的公式推导。在西瓜书上看到一...原创 2019-08-28 18:18:51 · 271 阅读 · 0 评论 -
#机器学习公式推导#PCA
PCA是一种降维算法,通俗来讲,就是找到使得对Y影响最大的X集合,且X集合内的x尽量线性无关。它的原理在于将原始特征空间重构,找到使得原样本点投影方差最大的方向,也就是主成分。那么PCA的目的就在于找到拥有最大投影方差的主成分。上公式:...原创 2019-09-19 21:38:46 · 170 阅读 · 0 评论