![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 65
惊鸿一博
毕业于中国科学院大学/中科院自动化研究所;专注于SLAM,三维重建,图像处理,视觉定位等;曾就职于鸿海集团,大陆集团,现在某自动驾驶独角兽企业;热爱分享,热爱生活;欢迎一起交流,学习,进步。
展开
-
机器学习_XGBoost模型_用C++推理示例Demo
将 python 训练好的 xgboost 模型, 使用C++ 进行加载并进行推理(预测)原创 2024-04-11 23:30:00 · 557 阅读 · 0 评论 -
XGBoost源码结构简介
XGBoost 是一个开源的机器学习库,它是用C++实现的,提供了高效的梯度提升决策树(GBDT)和随机森林算法。XGBoost源码结构清晰,模块化设计,方便理解和扩展。如果你想深入了解XGBoost的实现细节,建议阅读源码并参考官方文档。原创 2024-04-10 22:30:00 · 320 阅读 · 0 评论 -
评价指标_Precision(精确率)、Recall(召回率)和Accuracy(准确率)区别和联系
在实际应用中,需要根据具体的任务需求来选择使用哪种评价指标。如果任务更注重在预测为正例的样本中保持高的准确性,那么应该关注精确率;如果任务更注重找出所有真正为正例的样本,那么应该关注召回率;如果任务要求整体的预测准确性,那么应该关注准确率。Precision(精确率)、Recall(召回率)和Accuracy(准确率)是机器学习和信息检索领域常用的评价指标,它们用于评估分类器或检索系统的性能,但各自关注的方面略有不同。原创 2024-03-31 12:30:41 · 1307 阅读 · 0 评论 -
机器学习_集成学习_梯度提升_回归_决策树_XGBoost相关概念
集成学习(Ensemble Learning)是一种机器学习方法,它通过组合多个模型来改善整体预测性能。它的核心思想是“众口铄金”,即通过组合多个模型的预测结果,以期望得到更好的结果,比单个模型的预测结果更可靠和准确。集成学习的基本原理是结合多个弱学习器(Weak Learners),弱学习器通常是指在一定条件下预测结果略好于随机猜测的学习器。通过将多个弱学习器集成起来,可以产生一个强大的集成学习器(Strong Learner),其预测性能通常优于任何单个弱学习器。原创 2024-03-28 21:27:49 · 1810 阅读 · 2 评论