神经网络中的激活函数(activation function)-Sigmoid, ReLu, TanHyperbolic(tanh), softmax, softplus
https://blog.csdn.net/qrlhl/article/details/60883604#t2 PS:在学习深度学习的搭建时,用到不同的激活函数,因此查阅了这些函数,转自:http://blog.csdn.net/qrlhl/ar...
转载
2018-08-03 17:34:44 ·
3455 阅读 ·
0 评论