![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
sklearn实现机器学习
文章平均质量分 91
入锅的小麻圆
这个作者很懒,什么都没留下…
展开
-
sklearn实现GBDT算法(分类)
阿喽哈~小天才们,今天我们聊一聊GBDT上一篇文章我们详细地说了GBDT算法原理,包括为什么拟合负梯度、负梯度为何可以替代残差、二分类GBDT算法公式和实例演算,感兴趣的童鞋请移步具体算法公式啥的这里就不赘述啦,大家就自行学习理解叭,我们今天主要是说如何使用sklearn包来实现GBDT以及简单的调参演示,话不多说上代码~原创 2022-11-14 16:05:58 · 5232 阅读 · 0 评论 -
sklearn实现Adaboost算法(分类)
阿喽哈~小天才们,今天我们聊一聊Adaboost上一篇文章我们说了如何去实现随机森林,随机森林是集成学习中bagging算法的代表作,感兴趣的童鞋请移步今天要说的Adaboost算是boosting中比较元老级别的算法了,我们先来说说boosting算法的特点吧通过降低整体的偏差来降低泛化误差,因此被称为提升法相对于bagging,boosting算法在原理和操作上难度都更大由于boosting算法专注于降低与真实值之间的偏差,因此boosting在模型效果上表现突出。.........原创 2022-08-11 14:00:38 · 3225 阅读 · 2 评论 -
sklearn实现随机森林(分类算法)
阿喽哈~小伙伴们,今天我们来唠一唠随机森林 ♣ ♣ ♣随机森林应该是很多小伙伴们在学机器学习算法时最先接触到的集成算法,我们先简单介绍一下集成学习的大家族吧: 在Bagging集成中,需要并行建立多个弱评估器(非线性算法),然后综合多个弱评估器的结果进行输出: 随机森林是bagging家族的代表算法,它的算法思想体现在它的名字上:“随机”和“森林”。首先“森林”是指随机森林的所有基学习器都是决策树,“随机”是指随机从原样本集中抽取样本和特征来训练,并不会使用所有的样本和特征,每棵树独立地有放回抽样,这就保原创 2022-07-11 11:25:13 · 14191 阅读 · 4 评论 -
sklearn实现决策树(分类树)
阿喽哈~小伙伴们,今天我们来唠一唠决策树 ♣ ♣ ♣决策树应该是很多小伙伴入门机器学习的时候最先接触到的分类算法之一,决策树分为分类树和回归树,今天我们只说分类树~简单回顾一下分类树的算法原理:分类树的底层算法分为三种,分别是ID3, ID4.5和CART树。ID3算法以信息增益来决定每一次分裂的节点,它不能处理连续型变量,也不可以剪枝; ID4.5算法为了克服ID3算法的弊端(信息增益倾向划分拥有较多属性的特征,举个极端的例子:比如身份证号列),以信息增益率来决定划分的特征节点,它可以处理连原创 2022-06-07 14:50:06 · 4128 阅读 · 6 评论 -
sklearn实现逻辑回归
逻辑回归(logistics regression)属于机器学习中的监督算法,虽然名字中带有“回归”二字,但却干着分类的活~这主要是由于sigmod和softmax函数的特点,可以将任意实数映射到(0,1)区间,这样我们就可以得到一个概率值,根据概率的大小,再结合定下的阈值,就可以进行分类。具体的理论就不多说啦,这里主要介绍Python中的sklearn如何实现二分类逻辑回归。来,话不多说,上代码~一、导入各种包import numpy as npimport matplotlib.pyplot原创 2022-05-18 17:27:25 · 4561 阅读 · 0 评论