PPO 莫烦 ReLU激活函数的缺点
记录一个莫烦PPO代码中的小问题莫烦在PPO中创建神经网络的代码ReLU激活函数的缺点可能出现的问题可能出现的解决方法莫烦在PPO中创建神经网络的代码// morvanzhou def _build_anet(self, name, trainable): with tf.variable_scope(name): l1 = tf.layers.dense(self.tfs, 100, tf.nn.relu, trainable=trainable)ReLU激活函数的缺点训练的时候很
原创
2020-06-03 16:48:36 ·
931 阅读 ·
0 评论