关于费曼技巧的介绍可以参见这篇博客
Bagging方法是集成方法的一种代表方法。集成方法,简单来说,就是模型平均,通过训练多个不同的模型,然后将这多个模型的预测结果综合考虑来预测输出,以降低模型的泛化误差。而Bagging方法的特点在于它不用改变算法,而只需对训练数据集进行可重复的随机采样来构造多个相同规模的训练数据子集,从而训练得到多个不同的模型。
下图简要说明了Bagging方法的工作原理。
图片来源:《深度学习》花书中文版——7.11节 Bagging和其它集成方法
By the way, 模型平均是一种减少泛化误差的非常强大可靠的方法。理论分析表明,集成(模型)平均至少与它的成员表现得一样好,并且如果成员的误差是独立的,集成将显著地比其它成员表现得更好。