tf.nn.dropout()是tensorflow里面为了防止或减轻过拟合而使用的函数,它可以用在输入层、隐层和输出层
Dropout就是在训练过程中随机扔掉一部分神经元,这次训练过程中不更新其权值,也不参加神经网络的计算。
主要参数说明:
tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None, name=None):
x:输入的张量
keep_prob: 每个元素被保留下来的概率,在初始化时keep_prob是一个占位符, keep_prob = tf.placeholder(tf.float32) 。run时设置keep_prob具体的值。被保留下的神经元的值变为原来的1/keep_prob,其余的都变为0.
举例
import tensorflow as tf a=tf.constant([1.,2,3,4]) b=tf.nn.dropout(a,0.2) with tf.Session() as sess: print(sess.run(b))
感觉很别扭的一点是,这里的0.2是保留的概率,很疑惑tf设计是为什么不直接设计成被舍弃的概率