自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 2021-03-29

集成学习打卡第六天——评估模型的性能并调参之调参方法常用的参数优化方法主要包括交叉验证、网格搜索、遗传算法、粒子群优化、模拟退火。(1)交叉验证的基本思想是将数据集分割成N份,依次使用其中1份作为测试集,其他N-1份整合到一起作为训练集,将训练好的模型用于测试集中,以得到模型好坏的判断或估计值,可以得到N个这样的值。交叉验证通常用于估计模型的误差,这里将N个对应的误差求平均作为对模型误差的估计。也可以根据这N个值,选出拟合效果最好的模型,对应模型的参数也被认为是最优或接近最优的,因此交叉验证可以用来

2021-03-29 23:42:31 151

原创 2021-03-27

集成学习打卡第五天——机器学习之分类器性能指标一、ROC曲线1、概念:接收者操作特征,roc曲线上每个点反映着对同一信号刺激的感受性。横轴:负正类率特异度,划分实例中所有负例占所有负例的比例,(1-Specificity)纵轴:真正类率灵敏度,Sensitivity(正类覆盖率)2、针对一个二分类问题,将实例分为正类或者负类,但是实际中分类时,会出现四种情况。(1)一个实例是正类并且被预测为正类,即为真正类,记为TP Rrue Positive(2)一个实例是正类,但..

2021-03-27 23:20:47 129

原创 2021-03-24

集成学习第四天打卡——对模型超参数进行调优超参数优化,在机器学习中有些参数需要在学习过程开始之前进行设置,如果不进行人为设置,特定算法默认的参数可能不是最优或接近最优的,因此我们需要对这类参数进行优化以期得到更优值进而得到更优的模型。常用的参数优化方法有:交叉验证、网格搜索、遗传算法、粒子群优化、模拟退火等。模型参数与模型超参数的区别:(1)使用最小二乘法或者梯度下降法等最优化算法优化出来的数为参数(2)无法使用最小二乘法或者梯度下降法等最优化算法优化出来的数为超参数(3)模型参数是模型内

2021-03-24 23:14:04 142

原创 2021-03-22

集成学习打卡第三天-基础模型优化一、模型的方差与偏差首先是在训练集上进行模型的训练,然后再将模型运用到测试集中去,在测试集上的预测能力称为模型的泛化能力,当然,预测出来的值与实际的值肯定是有误差的,这一误差称为模型的泛化误差,模型的泛化误差通常包含以下三个部分:偏差(bias)、方差(variance)和噪声(noise),其中偏差指的是模型预测值偏离真实值的程度;方差代表的是值模型预测值的离散程度。具体来说偏差是指:为了选择一个简单的模型去估计真实函数所带入的误差。假如真实的数据X与Y的关系是

2021-03-22 23:46:29 118

原创 2021-03-18

集成学习第二天打卡——使用sklarn构建回归模型常用的回归模型有:线性回归、回归树、支持向量回归SVR三种模型对比:(1)当自变量与因变量之间有明显的线性关系时,传统的回归模型性能优于回归树模型,但是当自变量与因变量之间的关系为非线性且关系复杂时回归树模型更优;(2)回归树模型更符合人类的决策思维,可解性更强;(3)回归树模型可以直接做定性的特征,不需要做特殊处理,更简便;(4)对异常值不敏感,因此当缺失值和异常值时对模型不会产生影响;(5)回归树模型的越策准确性往往低于回归

2021-03-18 22:25:01 169

原创 集成学习打卡第一天

集成学习打卡第一天一、波士顿房价二、鸢尾花

2021-03-15 17:28:15 176

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除