![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
百面机器学习
weixin_41675900
这个作者很懒,什么都没留下…
展开
-
非监督学习
想比于监督学习,非监督学习的输入数据没有标签信息,需要通过算法模型来挖掘数据内在的结构和模式。非监督学习主要包含两大类学习方法:数据聚类和特征变量关联。其中,聚类算法往往是通过多次迭代来找到数据的最优分割,而特征变量关联则是利用各种相关性分析来找到变量之间的关系。1 K均值聚类支持向量机、逻辑回归、决策树等经典的机器学习算法主要用于分类问题,即根据一些已给定类别的样本,训练某种分类器,使得它能够对类别未知的样本进行分类。与分类问题不同,聚类是在实现并不知道任何样本类别标签的情况下,通过数据之间的额内在原创 2020-10-21 10:27:37 · 1253 阅读 · 0 评论 -
降维
常见的降维方法有主成分分析、线性判别分析、等距映射、局部线性嵌入、拉普拉斯特征映射、局部保留投影。1 PCA最大方差理论PCA属于一种线性、非监督、全局的降维算法问题:如何定义主成分?从这种定义出发,如何设计目标函数使得降维达到提取主成分的目的?针对这个目标函数,如何对PCA问题进行求解?PCA旨在找到数据中的主成分,并利用这些主成分表征原始数据,从而达到降维的目的。在信号处理领域,认为信号具有较大方差,噪声具有较小方差,信号与噪声之比称为信噪比。信噪比越大意味着数据的质量越好,反之,信噪比越小意原创 2020-10-19 20:11:37 · 325 阅读 · 0 评论 -
经典算法
1 支持向量机知识点:SVM模型推导、核函数、SMO算法问题:在空间上线性可分的两类点,分别向SVM分类的超平面做投影,这些点在超平面上的投影仍然是线性可分的吗?(1)SVM直观推导:对于任意线性可分的两组点,它们在SVM分类的超平面上的投影都是线性不可分的。由于SVM的分类超平面仅由支持向量决定,可以考虑只含支持向量SVM模型场景。使用反证法举例。证明还不严谨,即假设了只有支持向量的情况,会不会在超平面的变换过程中支持向量发生改变,原先的非支持向量和支持向量发生了转化。要会证明SVM的分类结原创 2020-10-18 16:54:37 · 150 阅读 · 0 评论 -
模型评估
1 评估指标的局限性知识点:准确率(Accuracy),精确率(Precision),召回率(Recall),均方根误差(RMSE)问题:准确率的局限性当负样本占99%时,分类器把所有样本都预测为负样本也可以获得99%的准确率。所以,当不同类别的样本比例非常不均衡时,占比大的类别往往成为影响准确率的最主要因素。为了解决这个问题,可以使用更有效的平均准确率(每个类别下的样本准确率的算术平均)作为模型评估的指标。问题:精确率与召回率的权衡精确率:预测为正样本的数据中,真实正样本的比例召回率:真实正原创 2020-10-15 21:11:58 · 327 阅读 · 0 评论