![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
薛定谔的炼丹炉!
这个作者很懒,什么都没留下…
展开
-
奇异值分解(SVD)
原文链接:https://www.jianshu.com/p/310b55c791de嘻嘻~今天也假装努力学习了鸭!总结一下前阵子学的线性代数的一小部分内容首先,奇异值分解(Singular Value Decomposition)是线性代数中一种重要的矩阵分解。区分和理解几个概念:1.奇异值对于一个实矩阵A(m×n阶),如果可以分解为A=UΣV’,其中U和Σ为分别为m×n与n×m阶正交阵,V为n×n阶对角阵,且Σ=diag(a1,a2,...,ar,0,..., 0)。且有a1=a2=a3=...=ar转载 2020-08-27 16:57:18 · 316 阅读 · 0 评论 -
机器学习/深度学习笔试面试——Kmeans和KNN
原文链接:https://blog.csdn.net/ywx1832990/article/details/84175277 Kmeans 与 kNN 虽然都是以 K 打头,但却是两类算法——kNN 为监督学习中的分类算法,而 Kmeans 则是非监督学习中的聚类算法转载 2020-06-11 11:37:49 · 224 阅读 · 0 评论 -
【机器学习】贝叶斯分类(通过通俗的例子轻松理解朴素贝叶斯与半朴素贝叶斯)
原文链接:https://blog.csdn.net/lyl771857509/article/details/78993493 贝叶斯分类贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。而朴素朴素贝叶斯分类是贝叶斯分类中最简单,也是常见的一种分类方法。这篇文章我尽可能用直白的话语总结一下我们学习会上讲到的朴素贝叶斯分类算法,希望有利于他人理解。转载 2020-06-10 20:21:30 · 711 阅读 · 0 评论 -
GBDT算法 (串行)
原文链接:https://blog.csdn.net/qq_40229367/article/details/88654293 GBDT算法 Gradient Boosting Decision Tree以梯度为优化目标,以提升为手段(前面讲到的集成算法中的串联),基础模型为决策树(这里用的是回归树)转载 2020-06-10 23:25:52 · 314 阅读 · 0 评论 -
决策树与随机森林2
原文链接:https://www.jianshu.com/p/6cad06c3e401决策树(decision tree)是一种基本的分类与回归方法,本文主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布,其主要优点是模型具有可读性,分类速度快。决策树学习通常包括三个步骤:特征选择,决策树的生成和决策树的修剪。而随机森林则是由多个决策树所构成的一种分类器,更准确转载 2020-06-10 23:11:12 · 380 阅读 · 0 评论 -
随机森林和决策树1
原文链接:https://blog.csdn.net/ddydavie/article/details/82687522 决策树本质是一颗由多个判断节点组成的树转载 2020-06-10 23:10:07 · 155 阅读 · 0 评论 -
boosting与bagging理解
原文:https://blog.csdn.net/wtq1993/article/details/51228043 作为集成学习的二个方法,其实bagging和boosting的实现比较容易理解,但是理论证明比较费力。下面首先介绍这两种方法。所谓的集成学习,就是用多重或多个弱分类器结合为一个强分类器,从而达到提升分类方法效果。严格来说,集成学习并不算是一种分类器,而是一种分类器结合的转载 2020-06-04 18:45:38 · 234 阅读 · 0 评论 -
PCA的数学原理 详细
原文链接:http://blog.codinglabs.org/articles/pca-tutorial.html PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的目的是介绍PCA的基本数学原理,帮助读者了解PCA的工作机制是什么。转载 2020-08-23 21:01:06 · 149 阅读 · 0 评论 -
xgboost(通俗理解)
原文链接:https://www.jianshu.com/p/105faa5fb5c7xgboost是时下热门的机器学习算法,在面试和竞赛中出现的频率非常高,但网上却没有一篇能够完全讲清楚的文章,因此,本文旨在用尽量少的公式,将xgboost讲清楚,明白,透彻。1 背景知识xgboost是Boost(提升)算法家族中的一员,Boost根本思想在于通过多个简单的弱分类器,构建出准确率很高的强分类器。简单地来说,Boost(提升)就是指每一步我都产生一个弱预测模型,然后加权累加到总模型中,可以用于回归和分转载 2020-08-08 16:08:58 · 6392 阅读 · 0 评论 -
【机器学习基础】 -EM算法
原文链接: 目录一 样例 二 公式描述三 参考文献 最大期望算法(Expectation-maximization algorithm,又译为转载 2020-06-11 11:13:57 · 461 阅读 · 0 评论 -
LDA(分类、降维)、PCA(降维)和KPCA(升维+PCA)
原文链接:https://www.jianshu.com/p/fb25e7c8d36e线性判别分析(LDA)LDA思想总结 线性判别分析(Linear Discriminant Analysis,LDA)是一种经典的降维方法。和主成分分析PCA不考虑样本类别输出的无监督降维技术不同,LDA是一种监督学习的降维技术,数据集的每个样本有类别输出。**LDA分类思想**简单总结如下:多维空间中,数据处理分类问题较为复杂,LDA算法将多维空间中的数据投影到一条直线上,将d维数据转化成1维数据进行处转载 2020-08-07 16:31:37 · 4316 阅读 · 0 评论 -
代价函数、损失函数、目标函数区别
一:损失函数,代价函数,目标函数定义首先给出结论:损失函数(Loss Function )是定义在单个样本上的,算的是一个样本的误差。代价函数(Cost Function )是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。目标函数(Object Function)定义为:最终需要优化的函数。等于经验风险+结构风险(也就是Cost Function + 正则化项)。关于目标函数和代价函数的区别还有一种通俗的区别:目标函数是最大化或者最小化,而代价函数是最小化...原创 2020-08-07 10:25:47 · 296 阅读 · 0 评论 -
生成式模型和判别式模型(通俗易懂)
原文链接:https://blog.csdn.net/qq_14997473/article/details/85219353 决策函数Y=f(X)与条件概率分布P(Y|X)决策函数Y=f(x):输入一个x,它就输出一个y值,这个y与一个阈值比较,根据比较结果判定x属于哪个类别。条件概率分布P(y|x):输入一个x,它通过比较它属于转载 2020-08-06 23:19:16 · 7071 阅读 · 0 评论 -
SVM核函数选择
SVM支持向量机,一般用于二分类模型,支持线性可分和非线性划分。SVM中用到的核函数有线性核’linear’、多项式核函数pkf以及高斯核函数rbf。当训练数据线性可分时,一般用线性核函数,直接实现可分;当训练数据不可分时,需要使用核技巧,将训练数据映射到另一个高维空间,使再高维空间中,数据可线性划分,但需要注意的是,若样本n和特征m很大时,且特征m>>n时,需要用线性核函数,因为此时考虑高斯核函数的映射后空间维数更高,更复杂,也容易过拟合,此时使用高斯核函数的弊大于利,选择使用线性核会更原创 2020-08-06 17:19:05 · 2597 阅读 · 0 评论 -
SVM简洁
原文链接:https://blog.csdn.net/qq_31347869/article/details/88071930 文章目录机器学习的一般框架SVM转载 2020-08-06 16:39:53 · 185 阅读 · 0 评论 -
(很棒)一篇搞定机器学习面试
原文链接:https://www.jianshu.com/p/405f233ed04b 序言本文尽可能的不涉及到繁杂的数学公式,把面试中常问的模型核心点,用比较通俗易懂但又不是专业性的语言进行描述。希望可以帮助大家在找工作时提纲挈领的复习最核心的内容,或是在准备的过程中抓住每个模型的重点。实战环境说明:Python 2.7 Sk转载 2020-08-05 23:25:57 · 359 阅读 · 0 评论 -
GBDT(一图搞定,简单易懂)
原文链接:https://www.jianshu.com/p/405f233ed04bGBDT (Gradient Boosting Decision Tree) 梯度提升迭代决策树。GBDT 也是 Boosting 算法的一种,但是和 AdaBoost 算法不同(AdaBoost 算法上一篇文章已经介绍);区别如下:AdaBoost 算法是利用前一轮的弱学习器的误差来更新样本权重值,然后一轮一轮的迭代;GBDT 也是迭代,但是 GBDT 要求弱学习器必须是 CART 模型,转载 2020-08-05 22:48:34 · 1993 阅读 · 0 评论 -
随机森林(类似Bagging,基于决策树)
原文链接:https://blog.csdn.net/qq_41020194/article/details/79942316 写在前面的话上一篇博文讲过了决策树啦,正好给这一篇的随机森林做铺垫(讲真,我是想先讲随机森林的,无奈随机森林的基础是决策树,因此只能先决策树知识来一波)。至于我为啥这么稀罕随机森林呢,是因为从进科研室的时候起转载 2020-08-05 15:56:10 · 645 阅读 · 0 评论 -
决策树算法原理
原文链接:https://blog.csdn.net/qq_41020194/article/details/79837093 写在前面的话 进入科科研室之后在组长的带领下也学了快有一年的R语言了,很快就要去找实习进行面试了。而面试难免会被问及很多的经典算法原理,从学习到现在,还从来没有将某一个算法完完整整的转载 2020-08-05 15:52:28 · 289 阅读 · 0 评论 -
(!简洁明了)Bagging 和Boosting的区别
原文链接:https://www.cnblogs.com/earendil/p/8872001.html Baggging 和Boosting都是模型融合的方法,可以将弱分类器融合之后形成一个强分类器,而且融合之后的效果会比最好的弱分类器更好。 Bagging:先介绍Bagging方法:Bagging即套袋法,其算法过程如下:从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一转载 2020-08-05 14:57:29 · 152 阅读 · 0 评论 -
KNN (K近邻)
原文链接:https://blog.csdn.net/weixin_44508906/article/details/90116509 K近邻k近邻法(k-N转载 2020-08-05 11:17:06 · 353 阅读 · 0 评论