1、作用
普通神经网络加上dropout,可以防止过拟合
2、原理
dropout是在训练的时候用,在训练时,随机去掉一些神经元,在测试的时候用全部的神经元,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征
3、dropout:随机把神经元置零
4、代码讲解
dropout1 = tf.nn.dropout(fc6, _dropout)
def dropout(x, keep_prob, noise_shape=None, seed=None, name=None)
参数:
x:输入
keep_prob:概率,取值范围(0,1)