一、正则化之Dropout(随机失活-weight=0) 数据尺度变化:训练时,所有权重除以(1-drop_prob),弥补删除部分神经元造成的总权重损失,这样训练时就不用再修改了 pytorch提供的dropout网络层 nn.Dropout():一般放在需要drop_out的网络层前面 重要参数:p舍弃/失活的概率