![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 90
外卖猿
这个作者很懒,什么都没留下…
展开
-
鲁棒线性模型估计(Robust linear model estimation)
寻找更鲁棒的方法过滤掉异常点,以获得更准确的模型预测参数。原创 2024-04-09 21:54:04 · 846 阅读 · 0 评论 -
马尔科夫链 Markov chain
马尔科夫链(Markov chain)及其模型在机器学习中应用广泛,本文结合一些参考资料做一个总结。原创 2023-05-31 19:40:59 · 871 阅读 · 0 评论 -
大津算法ostu
为了深入介绍此算法,先说明一些背景知识。原创 2023-05-04 18:42:22 · 962 阅读 · 0 评论 -
皮尔逊/斯皮尔曼相关系数
斯皮尔曼等级相关系数是一种衡量两个变量X、Y相关性的方法。ρ=1−6∑di2n3−nρ=1−n3−n6∑di2,其中di=xi−yidi=xi−yi。有趣的是,它不是直接针对变量各维度的值进行运算,而是针对各维度值的排序,即所谓的等级(rank)。显然,如果两变量单调性一致,则各维度等级的差did_idi均为0时,ρ=1\rho=1ρ=1;单调性相反时,ρ=−1。...原创 2022-07-28 18:24:13 · 2121 阅读 · 0 评论 -
半监督学习
在使用机器学习进行训练前,往往需要大量数据及其标签。而对数据进行标注需要花费人力,因此未标注的数据容易获得,同时这些数据中也隐含了对分类有用的信息。半监督学习(semi-supervised learning)可以结合已标注数据以及未标注的数据,以实现更准确的分类。本文结合sklearn实现,介绍Label Spreading的具体过程。Learning with Local and Global Consistency中提到,半监督学习满足两个一致性的先验假设,即:如果仅使用有标签的数据进行有监督学习,则原创 2022-06-21 19:32:55 · 1560 阅读 · 5 评论 -
AdaBoost 二分类问题训练误差界的2种证明方法
AdaBoost 二分类问题训练误差界的2种证明方法1.训练误差界定理2.不等式部分的两种证明方法2.1 《统计学习方法》给出的证明2.2 Freund与Schapire的paper证法参考文献1.训练误差界定理引自李航老师《统计学习方法》P161 定理8.2:∏m=1MZm=∏m=1M[2em(1−em)]\prod\limits_{m=1}^MZ_m=\prod\limits_{m=1}^M[2\sqrt{e_m(1-e_m)}]m=1∏MZm=m=1∏M[2em(1−em)]&nbs原创 2020-09-16 18:31:29 · 1020 阅读 · 0 评论 -
打印sklearn生成的决策树/GBDT各node方法
打印sklearn.tree.DecisionTreeClassifier生成的决策树各node1.sklearn.tree.DecisionTreeClassifier调用例子2.决策树打印成文本方法2.1 方法一:控制台中使用命令打印(本人使用的是spyder)2.2 方法二:修改sklearn.tree自带子函数打印结果1.sklearn.tree.DecisionTreeClassifier调用例子假设对以下数据通过决策树进行分类:from sklearn import treefrom s原创 2020-09-15 15:02:43 · 3766 阅读 · 4 评论 -
一文GET Kmeans、DBSCAN、GMM、谱聚类Spectral clustering 算法
聚类常用方法学习1.DBSCAN2.高斯混合模型(GMM)与EM算法的推导参考文献1.DBSCAN下面网址提供了很好的演示。https://www.naftaliharris.com/blog/visualizing-dbscan-clustering/2.高斯混合模型(GMM)与EM算法的推导具体推导过程可见李航老师《统计学习方法》9.3节。算法实现可参考:https://github.com/chenwj1989/MLSP/tree/master/gmm以3个高斯混合分模型为例:参考文原创 2020-07-16 14:42:40 · 1412 阅读 · 1 评论 -
从奇异值分解SVD到主成分分析PCA
从SVD到PCA1.奇异值分解(singular value decomposition,SVD)1.奇异值分解(singular value decomposition,SVD)原创 2020-09-18 20:42:36 · 506 阅读 · 0 评论 -
决策树CART 代价复杂度剪枝
CART 代价复杂度CCP剪枝1.CCP算法1.1 代价复杂度函数参考文献以classification分类为例:1.CCP算法代价复杂度剪枝(CCP)是决策树的一种后剪枝算法。1.1 代价复杂度函数Rα(T)=R(T)+α⋅∣f(T)∣R_\alpha (T) = R(T) + \alpha \cdot | f(T) |Rα(T)=R(T)+α⋅∣f(T)∣ R(T)R(T)R(T):训练/学习错误率 f(T)f(T)f(T):决策树T的叶子结点个数R(T)=∑t∈f(原创 2020-09-13 22:17:15 · 3551 阅读 · 1 评论 -
机器学习术语
机器学习常用术语1. OOB2. 维度灾难参考文献1. OOB2. 维度灾难参考文献[1]原创 2021-01-30 19:15:45 · 384 阅读 · 0 评论