dropout会改变数据分布,在训练集和测试集中的样本不一样。该如何解决?
dropout层会改变整体的方差,使得训练时候方差大于测试方差,那么解决的方案就是冻结dropout层,然后重新对模型训练一两个batch就可以了。
dropout解决过拟合
(1)取平均作用:dropout掉不同的神经元如同训练不同的网络,随即删除会使网络结构已经不同,整个dropout过程就相当于对对多个不同网络进行的平均。不同的网络有不同的过拟合,通过一些互为“反向”的过拟合相互抵消就可以达到整体上减少过拟合。
(2)减少神经元之间复杂的共适应关系:有点像楼1楼2正则化,减少权重使得网络对丢失的特的神经元连接的鲁棒性。
最后的最后,祝福我的宝宝情人节快乐。我的大宝宝,爱你哦😘