![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 83
happiless
这个作者很懒,什么都没留下…
展开
-
幸福感挖掘
一、学习知识点概要1.1 学习内容介绍阿里天池挖掘幸福感比赛入口: https://tianchi.aliyun.com/competition/entrance/231702/introduction1.2 学习目标通过学习能够挤进排行榜前5001.3 代码流程1.数据探索2.特征工程3.建模预测4.模型调参与融合二、学习内容1. 数据探索2. 特征工程import numpy as npimport pandas as pdpd.set_option('disp原创 2021-04-22 13:09:35 · 511 阅读 · 1 评论 -
基于LightGBM的分类预测
一、学习知识点概要1.1 LightGBM的介绍1). 2017年经微软推出,XGBoost的升级版2). 模型精度: 两个模型精度相当3). 训练速度: LightGBM训练的速度更快 => 1/104). 内存消耗: LightGBM占用内存更小 => 1/65). 特征缺失值: 两个模型都可以自动处理特征缺失值6). 分类特征: XGBoost不支持类别特征,需要对其进行onehot编码,而LightGBM支持类别特征LightGBM的主要优点: 1.简单易用。提原创 2021-04-16 23:57:12 · 2143 阅读 · 4 评论 -
基于XGBoost的分类预测
一. 学习知识点概要1.1 XGBoost的介绍优点1. 简单易用。相对其他机器学习库,用户可以轻松使用XGBoost并获得相当不错的效果。2. 高效可扩展。在处理大规模数据集时速度快效果好,对内存等硬件资源要求不高。3. 鲁棒性强。相对于深度学习模型不需要精细调参便能取得接近的效果。4. XGBoost内部实现提升树模型,可以自动处理缺失值。缺点:1. 相对于深度学习模型无法对时空位置建模,不能很好地捕获图像、语音、文本等高维数据。2. 在拥有海量训练数据,并能找到合适的深度学习模型时原创 2021-04-13 23:49:24 · 6033 阅读 · 10 评论 -
基于逻辑回归的分类预测
一. 学习知识点概要1. 逻辑回归的介绍与应用1.1 逻辑回归的介绍逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个字,但逻辑回归其实是一个分类模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。而对于逻辑回归,最为突出的两点就是其模型简单和模型的可解释性强。逻辑回归模型的优劣势:优点:实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低;缺点:容易欠拟合,分类原创 2021-04-12 11:26:06 · 1553 阅读 · 0 评论