理论学习:
网上查找模型融合的方法,进行学习:
1 投票:采取投票制的方法,投票多者确定为最终的模型。
2 平均:取平均。稍稍改进的方法是进行加权平均。
3 Bagging:采用有放回的方式进行抽样,用抽样的样本建立子模型,对子模型进行训练,这个过程重复多次,最后进行融合。
4 Boosting:Bagging算法可以并行处理,而Boosting的思想是一种迭代的方法,每一次训练的时候都更加关心分类错误的样例,给这些分类错误的样例增加更大的权重,下一次迭代的目标就是能够更容易辨别出上一轮分类错误的样例。最终将这些弱分类器进行加权相加。
5 Stacking:
详细:解释
实践
对之前的模型进行模型融合。
下一步工作
暂无。