如果激活函数使用sigmoid和tanh,怎最好使用xavir
tf.contrib.layers.xavier_initializer_conv2d
如果使用relu,则最好使用he initial
tf.contrib.layers.variance_scaling_initializer
如果激活函数使用sigmoid和tanh,怎最好使用xavir
tf.contrib.layers.xavier_initializer_conv2d
如果使用relu,则最好使用he initial
tf.contrib.layers.variance_scaling_initializer