这一节学习内容优点少啊,都是以前比较熟悉的内容,算是复习一遍,要点纪录如下:
(1)软投票法考虑了概率,可以得到比硬投票法更加准确的预测结果。
(2)Bagging不仅仅集成模型最后的预测结果,同时采用一定策略来影响基模型训练,保证基模型可以服从一定的假设。
(3)尽量让基模型具有差异性,但同时又性能相当,不能差异太大。
(4)Bagging集成了bootstrap采样策略,即又放回的采样。Bagging方法之所以有效,是因为每个模型都是在略微不同的训练数据集上拟合完成的,这又使得每个基模型之间存在略微的差异,使每个基模型拥有略微不同的训练能力。
(5)用Scikit-learn中的BaggingClassifier\BaggingRegressor\VotingRegressor/VotingClassifier结合基模型可实现对应的集成。