![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
统计学习方法
文章平均质量分 90
K_Albert
这个作者很懒,什么都没留下…
展开
-
笔记-朴素贝叶斯
1.朴素贝叶斯朴素贝叶斯法式基于贝叶斯定理以及特征条件独立分布的假设的一种分类方法。 学习朴素贝叶斯的过程涉及到一部分概率论的知识,准备另写一篇博客记录。2.朴素贝叶斯学习方法先进行参数估计(极大似然估计、贝叶斯估计)出先验概率,然后利用先验概率求出后验概率。原创 2017-10-17 22:54:54 · 323 阅读 · 0 评论 -
笔记-感知机、超平面
1.感知机感知机是一种二分类的线性分类模型,输入为实例的特征向量,输出为实例的类别{+1,-1}。感知机要求数据集是线性可分的。 按照统计学习三要素模型、策略、算法的顺序来介绍。2.感知机模型由输入空间到输出空间的如下函数: f(x)=sign(ω⋅x+b)f(x)=sign(\omega\cdot x+b) 其中ω,b\omega,b 为模型参数,ω⊂Rn\omega\subset R^n叫原创 2017-10-07 22:33:07 · 4677 阅读 · 1 评论 -
笔记-CART
1.CART分类与回归树(classification and regression tree)是决策树算法的一种,既可以用于分类,也可以用于回归。CART假设决策树是二叉树,其结点特征取值只有“是”和“不是”,这样的决策树相当于递归的二分每个特征,CART算法:(1)决策树生成:通过训练数据集生成 决策树,越大越好。(2)决策树剪枝:使用验证数据集对决策树进行剪枝,选出最优的子树,同样是损失函数最原创 2017-10-19 11:16:43 · 430 阅读 · 0 评论 -
笔记-决策树
1.决策树决策树是一种既可以用于分类又可用于回归的算法。决策树可以认为是if-then规则,也可认为是输入空间和类空间条件概率。决策树的生成分为三步:特征值的选择,决策树生成,决策树剪枝。2.决策树模型决策树由有向边和结点构成,决策树的结点有两种,一种是内部结点,一种是叶结点。分类决策树中,内部结点代表特征,叶结点代表类。回归树中,内部结点代表输入空间的划分区域,叶结点代表输出值。特征数模型是树状结原创 2017-10-19 22:53:50 · 424 阅读 · 1 评论