![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
统计学习方法
tianyouououou
这个作者很懒,什么都没留下…
展开
-
统计学习方法第二版学习笔记(三)朴素贝叶斯法
3 朴素贝叶斯法原创 2019-07-18 08:52:46 · 206 阅读 · 0 评论 -
统计学习方法第二版学习笔记(四)决策树
3 决策树 可以认为是if-then规则的集合,具有可读性,分类速度快。 学习时,根据损失函数最小化的原则建立决策树模型。 决策树学习通常包括三个步骤:特征选择、决策树生成和决策树的修剪。 3.1 决策树模型 结点有两种类型:内部结点和叶节点,内部结点表示一个特征,叶节点表示一个类。 用决策树分类,从根节点开始,对某一个特征进行测试,依据结果将实例分配到其子节点,每一个子节点对应着该特征的一个取值...原创 2019-07-19 08:24:04 · 132 阅读 · 0 评论 -
统计学习方法(五)Logistic回归与最大熵模型
5 Logistic回归与最大熵模型 5.1 logistic回归模型 事件的几率是指该事件发生的概率与不发生的概率的比值。 在 logistic回归模型中,输出Y的对数几率是输入X的线性函数。 通过模型可将线性函数转换为概率,线性函数的值越接近正无穷,概率值越接近1,线性函数的值越接近负无穷,概率值越接近0。 可以应用极大似然估计法估计模型参数,从而得到回归模型,得到w的估计。这样,问题就变成了...原创 2019-07-19 15:24:40 · 214 阅读 · 0 评论 -
统计学习方法(六)支持向量机
6 支持向量机 SVM是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器。 支持向量机还包括核技巧,这使它成为实质上的非线性分类器。 支持向量机学习方法包含构建由简至繁的模型:线性可分支持向量机、线性支持向量机、非线性支持向量机。 6.1 线性可分支持向量机与硬间隔最大化 支持向量是训练数据集的样本点中与分离超平面距离最近的样本点的实例。 决定分离超平面时只有支持向量起作用,...原创 2019-07-20 08:10:17 · 277 阅读 · 0 评论 -
统计学习方法第二版学习笔记(二)K近邻算法
2 K近邻算法 K近邻算法对于新的实例,根据K个最近邻的训练实例的类别,通过多数表决等方式进行预测。 因此,K近邻算法不具有显示的学习过程。 K值的选择,距离度量及分类决策规则是三个基本要素。 2.1 K近邻算法内容 给定一个数据集,对新的输入实例,在训练集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把输入实例分为这个类。 K=1时是特殊情况,称为最邻近法。 2.2 K值的选择 ...原创 2019-07-17 21:00:02 · 181 阅读 · 0 评论