softmax()可以说是很基础的东西了,为什么还要看一遍?
moving_mean = torch.sum(moving_mean*nn.Softmax(-1)(self.layer(x.unsqueeze(-1))),dim=-1)
看到这行代码的时候突然发现自己对nn.Softmax并没有很了解,故有此文。
torch中两种用法
torch.nn.functional.Softmax(input,dim=None)
nn.Softmax(dim=None)(input)
nn.Softmax_harry_tea的博客-CSDN博客
pytorch中tf.nn.functional.softmax(x,dim = -1)对参数dim的理解_一小坨北北的博客-CSDN博客_nn.functional.softmax
参考资料