运行时激活神经网络中某一部分神经元,将激活信息向后传入下一层的神经系统。激励函数的实质是非线性方程。 Tensorflow 的神经网络 里面处理较为复杂的问题时都会需要运用激励函数 activation function.
如下图

在少量层结构中, 我们可以尝试很多种不同的激励函数. 在卷积神经网络 Convolutional neural networks 的卷积层中, 推荐的激励函数是 relu. 在循环神经网络中 recurrent neural networks, 推荐的是 tanh 或者是 relu
本文介绍了TensorFlow中常用的激励函数,包括ReLU、tanh等,并探讨了它们在不同类型的神经网络如卷积神经网络和循环神经网络中的应用。
7767

被折叠的 条评论
为什么被折叠?



