激励函数的选择:
激励函数必须是可以微分的, 因为在 误差反向传递的时候, 只有这些可微分的激励函数才能把误差传递回去.
在卷积神经网络的卷积层中, 推荐的激励函数是 relu.
在循环神经网络中 推荐的是 tanh 或者是 relu。如下图:
在tensorflow中使用tf.nn.relu(x)等方式调用相应的激活函数
激励函数
最新推荐文章于 2023-04-11 09:22:42 发布
激励函数的选择:
激励函数必须是可以微分的, 因为在 误差反向传递的时候, 只有这些可微分的激励函数才能把误差传递回去.
在卷积神经网络的卷积层中, 推荐的激励函数是 relu.
在循环神经网络中 推荐的是 tanh 或者是 relu。如下图:
在tensorflow中使用tf.nn.relu(x)等方式调用相应的激活函数