当我们根据数据及需求采取了不同的模型后,会因为我们对模型的选择和参数的调整不同而产生不同的效果。这时,我们可以通过模型融合,取优去劣,对结果做最后的改善。
常见的模型融合方法有:简单加权融合、stacking、blending、boosting
stacking是用初始训练数据训练出若干基学习器后,用这几个学习器的训练结果作为新的训练集,来学习一个新的学习器。但stacking更容易过拟合,可以采用K折交叉验证法求解防止过拟合。
blending是通过对多个学习器进行线性调整组合,给个部分加权以最小化误差,所以是一个优化的思路
数据挖掘实战入门(五)——模型融合
最新推荐文章于 2021-06-27 10:05:00 发布