不用nn.functional的话
tanh:
output = nn.Tanh()(input)
Or
output = input.tanh()
sigmoid:
torch.nn.functional.sigmoid和torch.sigmoid没有什么区别,但是前者当作一个函数直接使用,后者当作神经网络中的一层,需要在init中进行初始化
不用nn.functional的话
tanh:
output = nn.Tanh()(input)
Or
output = input.tanh()
sigmoid:
torch.nn.functional.sigmoid和torch.sigmoid没有什么区别,但是前者当作一个函数直接使用,后者当作神经网络中的一层,需要在init中进行初始化