dropout在训练和预测时的差异。dropout代码实现。dropout为什么可以防止过拟合?相当于同时训练了多个神经网络,最终预测结果是多个网络bagging的结果。那模型bagging为什么可以防止过拟合?如果bagging的n个模型相互独立,那么预测平均值方差=单个方差/n。因此bagging方法确实可以减少预测方差,减少过拟合。