![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 75
黄笳倞
工作了就没写过博客,只能抽时间写点了...
展开
-
机器学习中的GBDT模型及其优缺点(包含Python代码样例)
优点:高准确性:GBDT模型在训练集和测试集上都表现良好,可以处理高维度、稀疏特征以及非线性关系等复杂问题。强大的泛化能力:GBDT能够通过组合多个弱分类器来形成一个强分类器,减少过拟合的风险。可解释性:GBDT模型能够提供特征重要性排名,帮助我们了解哪些特征对于预测结果的贡献较大。对于缺失值的鲁棒性:GBDT能够自动处理缺失值,无需额外的处理步骤。缺点:训练时间较长:由于GBDT是一个串行算法,需要按顺序构建每棵决策树,因此训练时间较长。原创 2024-04-02 14:36:43 · 1204 阅读 · 0 评论 -
机器学习中的CatBoost模型及其优缺点(包含Python代码样例)
CatBoost是一种梯度提升决策树(Gradient Boosting Decision Tree)的集成模型。梯度提升是一种通过训练一系列弱学习器来构建一个强大的集成模型的技术。CatBoost是从XGBoost和LightGBM中发展而来的一种优化版本。CatBoost最独特的特点是它对类别型特征的处理方式。传统的梯度提升决策树通常需要将类别型特征转换为数值型特征,例如使用独热编码或者标签编码。原创 2024-04-02 13:08:12 · 1643 阅读 · 0 评论 -
机器学习中的XGBoost模型及其优缺点(包含Python代码样例)
XGBoost(eXtreme Gradient Boosting)是一种机器学习算法,用于解决分类和回归问题。它是基于梯度提升树(Gradient Boosting Decision Trees)方法的扩展,通过集成多个决策树模型来提高预测的准确性。XGBoost的主要特点包括:高性能:XGBoost使用了一系列的优化技术,例如并行处理,缓存优化和近似算法,使得其在大规模数据集上的训练速度更快。正则化:XGBoost提供了正则化参数来防止过拟合,包括控制树的复杂度和使用正则化项来控制权重的大小。原创 2024-03-29 20:17:14 · 2151 阅读 · 0 评论 -
机器学习中的LightGBM模型及其优缺点(包含Python代码样例)
LightGBM(Light Gradient Boosting Machine)是一种基于梯度提升(Gradient Boosting)算法的机器学习模型。它是由微软团队于2017年开发的,旨在解决大规模数据下的效率和准确性问题。LightGBM的原理如下:基于梯度提升:LightGBM使用梯度提升算法来训练多个弱分类器,每个弱分类器都试图学习最佳的预测函数来减少当前模型的残差。基于直方图的决策树算法:LightGBM使用直方图算法替代了传统的决策树算法。原创 2024-03-28 11:16:11 · 935 阅读 · 0 评论 -
机器学习中的 K-Means算法及其优缺点(包含Python代码样例)
优点:实现简单,计算快速,适用于处理大规模数据集。可用于聚类分析,发现数据中的隐藏模式和组织结构。算法的结果具有可解释性,即每个样本点都属于唯一的一个聚类。缺点:需要预先指定聚类数量 K,这对于一些数据集来说可能是困难的,而错误的选择聚类数量可能导致结果不准确。对初始聚类中心的选择敏感,初始点的选择不同可能导致得到不同的聚类结果。对于非凸形状的聚类,K-均值算法可能表现不佳,会将非凸形状的聚类误认为多个凸形状的聚类。原创 2024-03-28 10:00:49 · 528 阅读 · 0 评论