![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
#集成学习
文章平均质量分 93
L1315382539
这个作者很懒,什么都没留下…
展开
-
【集成学习-组队学习】4.对模型超参数进行调优(调参)
对模型超参数进行调优(调参):之前的讨论中,对模型的优化都是对模型算法本身的改进,比如:岭回归对线性回归的优化在于在线性回归的损失函数中加入L2正则化项从而牺牲无偏性降低方差。但是对于这其中参数的选取并没有给出很好的解决方法,那么能不能找到一种方法找到最优的参数λ\lambdaλ?这实际上涉及到最优化内容。首先要区分参数与超参数,如果要用一句话概括:模型参数是模型内部的配置变量,可以用数据估计模型参数的值;模型超参数是模型外部的配置,必须手动设置参数的值。以我接触过的高斯分布混合模型(GMM)原创 2021-03-24 20:23:41 · 1422 阅读 · 0 评论 -
【集成学习-组队学习】3.优化基础模型
优化基础模型在回归问题的基本算法中,我们使用数据集去估计模型的参数,如线性回归模型中的参数w,那么这个数据集我们称为训练数据集,简称训练集。我们在回归问题中使用训练集估计模型的参数的原则一般都是使得我们的损失函数在训练集达到最小值,其实在实际问题中我们是可以让损失函数在训练集最小化为0,如:在线性回归中,我加入非常多的高次项,使得我们模型在训练集的每一个数据点都恰好位于曲线上,那这时候模型在训练集的损失值也就是误差为0。那么这样我们的模型是否就可以预测任意情况呢?答案是显然否定的。我们建立机器学习转载 2021-03-22 22:15:20 · 250 阅读 · 0 评论 -
【集成学习-组队学习】2.使用sklearn构建完整的机器学习项目流程
使用sklearn构建完整的机器学习项目流程一般来说,一个完整的机器学习项目分为以下步骤:1.明确项目任务:回归 / 分类2.收集数据集并选择合适的特征。3.选择度量模型性能的指标。4.选择具体的模型并进行训练以优化模型。5.评估模型的性能并调参。下面我们以一个例子来进行上述步骤的实践:1.明确项目任务:回归 / 分类本次实践我们进行回归分析2.收集数据集并选择合适的特征:在数据集上使用导论中提到的Boston房价数据集,因为简单容易操作。如下导入数据:from sklearn转载 2021-03-18 22:27:27 · 299 阅读 · 0 评论 -
【集成学习-组队学习】导论
从机器学习算法本身来看,可分为监督学习、非监督学习、半监督学习、增强学习。针对于本次自学的内容,主要以回归、分类的集成学习问题为主,因此主要学习监督学习:监督学习:给机器的训练数据拥有标记或标签的学习方式是监督学习。监督学习主要处理分类、回归问题,最常见的监督学习算法主要有以下几种:1. 朴素贝叶斯(Naive Bayes Classifier)朴素贝叶斯算法(NBC) 是应用最为广泛的分类算法之一。NBC假设了数据集属性之间是相互独立的,常用于文本分类。2. 决策树(Decision Tree原创 2021-03-16 00:47:53 · 250 阅读 · 1 评论