与Boosting不同,Bagging是通过对训练数据划分,让不同模型使用不同训练集来实现学习器的差异。
Bagging采用自助采样的方法:即采用有放回采样,有些样本会重复出现,同时也能包含63.2%的样本。不同采样样本集保证了差异。
随机森林是在bagging的基础上引入了特征的随机:参数k为随机选择的特征数,推荐值为k=log2d
随着分类器数量的增加,RF的错误率显著下降到一定的数量后趋于稳定。
集成学习_Bagging 随机森林
最新推荐文章于 2024-10-02 21:43:07 发布