参考:https://blog.csdn.net/weixin_44020179/article/details/117671227
见上篇:torch.nn.Sigmod
关于下面三种sigmoid的使用方法
- torch.sigmoid()
- torch.nn.functional.sigmoid()
- torch.nn.Sigmoid()
先来看看官方文档怎么说的
1.torch.nn.functional.sigmoid()
2.torch.nn.Sigmoid()
3. torch.sigmoid()
可以看到都是公式
也就是将值映射到0-1之间。
相同点
- 都是将值映射到0-1之间,没用区别
不同点
- 所属类型不同
方法:torch.sigmoid() 和torch.nn.funtional.sigmoid()
类:torch.Sigmoid - 使用方法不同
两个方法函数直接传输向量就行,而类需要先定义一个类,然后再通过调用类本身的__call__函数去使用。
import torch
import torch.nn.functional as F
from torch import nn
a = torch.tensor([1,2,3])
print(torch.sigmoid(a))
print(F.sigmoid(a))
b = nn.Sigmoid()
print(b(a))
结果一样。