机器学习
文章平均质量分 92
广漂一枚
来自遵义酒都的广漂族,多年大厂经验,等混不下去就回家卖酒,哈哈...
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
2.1、机器学习-模型评估指标与参数调优
本文总结了机器学习的常见评估指标与调优方法。分类问题主要采用混淆矩阵、准确率、精确率、召回率、F1-Score、ROC曲线、AUC值和KS曲线等指标;回归问题常用MAE、MSE、RMSE、R²等指标,并分析了各指标的适用场景。此外,介绍了K折交叉验证和GridSearch网格搜索两种参数调优方法,前者通过数据切分提升模型可信度,后者通过穷举搜索寻找最优超参数组合。这些指标和方法的选择需结合实际业务需求和模型特点。原创 2025-09-21 12:53:16 · 1081 阅读 · 0 评论 -
2.0、机器学习-数据聚类与分群分析
摘要:本文介绍了两种无监督聚类算法——K-Means和DBSCAN。K-Means通过迭代优化质心实现球形簇划分,需预先指定簇数,对噪声敏感。DBSCAN基于密度识别任意形状簇,能自动处理噪声,但需设置邻域半径和最小点数。实验对比显示:K-Means适合凸数据集,计算高效;DBSCAN适用于非凸分布,能识别噪声点。文章通过Python代码演示了两种算法在合成数据上的应用效果,并对比了它们在聚类形状、噪声处理、参数需求等方面的特性差异。原创 2025-09-20 21:57:40 · 722 阅读 · 0 评论 -
1.9、机器学习-LightGBM模型(金融实战)
LightGBM是一种高效的梯度提升决策树框架,相比XGBoost具有更快的训练速度和更低的内存消耗。它采用直方图算法、按叶子生长策略等技术优化,特别适合大规模数据和高维特征场景。本文通过一个客户违约预测案例,展示了LightGBM的实际应用流程:从数据预处理、特征工程到模型构建、评估和调优,最后部署应用。案例中重点演示了分类模型的实现、特征重要性分析以及参数调优方法,为处理类似预测问题提供了完整参考。原创 2025-09-19 09:00:00 · 579 阅读 · 0 评论 -
1.8、机器学习-XGBoost模型(金融实战)
本文系统介绍了Boosting集成学习方法,重点分析了AdaBoost、GBDT、XGBoost和LightGBM等算法的核心思想与特点。通过对比Bagging与Boosting的技术差异,指出Boosting算法通过迭代优化和样本权重调整,能构建高精度模型但易过拟合。文章详细解析了XGBoost相对GBDT的改进,包括二阶泰勒展开、正则化等优化,并提供了信用卡评分实战案例,展示数据预处理、模型训练评估、特征重要性分析等完整流程。结果表明,XGBoost在信用评分预测中表现优异,同时强调了模型调优和过拟合控原创 2025-09-16 07:44:09 · 1067 阅读 · 0 评论 -
1.7、机器学习-随机森林模型
摘要: 集成学习通过组合多个模型提升预测性能,主要分为Bagging(如随机森林)和Boosting(如AdaBoost、XGBoost)两类算法。随机森林作为Bagging代表,通过数据/特征随机抽样构建多棵决策树,以投票或平均方式输出结果,兼具分类与回归功能。其核心参数包括树数量(n_estimators)、随机种子(random_state)和树深度(max_depth)等,需调参平衡性能与过拟合。以鸢尾花数据集为例,随机森林分类器通过SKlearn实现,展示高准确率与稳定性的特点,适用于复杂数据预测原创 2025-09-12 14:30:00 · 839 阅读 · 0 评论
分享