原地址:http://blog.csdn.net/niuwei22007/article/details/49208643可以查看更多文章
激活函数也是神经网络中一个很重的部分。每一层的网络输出都要经过激活函数。比较常用的有linear,sigmoid,tanh,softmax等。Keras内置提供了很全的激活函数,包括像LeakyReLU和PReLU这种比较新的激活函数。
一、激活函数的使用
常用的方法在Activation层中可以找到。看代码。
from keras.layers.core import Activation, Dense
model.add(Dense(64))
model.add(Activation('tan