球赛中,防守方的联防策略是非常有效的,几个队员彼此照应,随时协防、换位、补位,护送等,相互帮助,作为一个整体作战,而集成学习,就是机器学习里面的协同作战!如果你训练出一个模型比较弱,又训练出一个模型还是比较弱,但是,几个不大一样的模型组合起来,很可能——效率会好过一个单独的模型。这个思路导出的随机森林,梯度提升决策树,以及XGBoost等算法,都是常用的、有效的、经常在机器学习竞赛中夺冠的法宝。
集成学习(ensemble learning),是通过构建出多个模型(这些模型可以是比较弱的模型),然后将它们组合起来完成任务。名字听起来比较高大上,但它其实是很经典的机器学习方法了。在深度学习时代,集成学习仍然具有很高的江湖地位。集成学习核心策略是通过模型的集成减少机器学习中的方差(variance)和偏差(bias)。
我们将分为5篇文章介绍集成学习,分别是:
- 偏差和方差
- Bagging - 戳此阅读 <