监督学习
brucewong0516
这个作者很懒,什么都没留下…
展开
-
【机器学习】LDA线性判别分析原理及实例
LDA线性判别分析也是一种经典的降维方法,LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是投影后类内方差最小,类间方差最大。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心。原创 2017-12-01 11:37:56 · 14627 阅读 · 0 评论 -
【机器学习】GBDT梯度提升算法调参法总结II
对于GBDT的参数调整,上一篇已经通过实例讲明,不过调整参数确实重要,继续总结一下通用套路。原创 2017-12-03 11:36:49 · 5765 阅读 · 0 评论 -
【机器学习】scikit-learn朴素贝叶斯GaussianNB实例
在所有的机器学习分类算法中,朴素贝叶斯和其他绝大多数的分类算法都不同。对于大多数的分类算法,比如决策树,KNN,逻辑回归,支持向量机等,他们都是判别方法,也就是直接学习出特征输出Y和特征X之间的关系,要么是决策函数Y=f(X),要么是条件分布P(Y|X)。但是朴素贝叶斯却是生成方法,也就是直接找出特征输出Y和特征X的联合分布P(X,Y),然后用P(Y|X)=P(X,Y)/P(X)得出。朴素贝叶斯很直观,计算量也不大。原创 2017-12-14 00:50:07 · 51005 阅读 · 0 评论 -
【机器学习】基于sklearn-MLP多层感知机实例
在之前的【【深度学习】DNN神经网络模型】一文中弄清楚MLP基础由来,本次进一步基于sklearn机器学习库来实现该过程。原创 2017-12-15 23:22:18 · 18413 阅读 · 5 评论 -
【机器学习】GBDT梯度下降提升算法及参数寻优实例
GBDT的思想可以用一个通俗的例子解释,假如有个人30岁,我们首先用20岁去拟合,发现损失有10岁,这时我们用6岁去拟合剩下的损失,发现差距还有4岁,第三轮我们用3岁拟合剩下的差距,差距就只有一岁了(**残差作为下一轮拟合的数据的理解**)。如果我们的迭代轮数还没有完,可以继续迭代下面,每一轮迭代,拟合的岁数误差都会减小。原创 2017-12-01 01:27:49 · 9487 阅读 · 2 评论