Tensor Shapes
当我们想要对两个张量进行操作的时候,它们的shape必须是相同的,也就是说维度相同,而且每个维度里元素的个数相同。
>>> x = torch.empty(2,2,3)
>>> print(x.shape)
torch.Size([2, 2, 3])
>>> print(x)
tensor([[[-6.2546e+31, 4.5752e-41, -6.2546e+31],
[ 4.5752e-41, 0.0000e+00, 0.0000e+00]],
[[ 0.0000e+00, 0.0000e+00, 0.0000e+00],
[ 0.0000e+00, 0.0000e+00, 0.0000e+00]]])
.shape是张量的一个属性,x是一个3维的shape为2*2*3的张量
下面是3个例子
>>> a = torch.FloatTensor([[[2,3]],[[3,2]]])
>>> print(a)
tensor([[[2., 3.]]])
>>> print(a.shape)
torch.Size([2, 1, 2])
>>> print(a.dim())
3
不太正规的理解:从第1个左方括号到数字,一共有3个左方括号,上面创建了1个3维张量。第1个[]内有两个元素,第2个[]内有1个元素,第3个[]内有两个元素,所以shape为2*1*2 。
>>> b = torch.FloatTensor([[2, 3]])
>>> print(b)
tensor([[2., 3.]])
>>> print(b.shape)
torch.Size([1, 2])
>>> print(b.dim())
2
上面创建了1个2维张量,shape为1*2
>>> c = torch.FloatTensor(2,3)
>>> print(c)
tensor([[-1.0305e-23, 3.0833e-41, -1.0305e-23],
[ 3.0833e-41, 1.4013e-45, 0.0000e+00]])
>>> print(c.shape)
torch.Size([2, 3])
>>> print(c.dim())
2
上面创建了一个2维张量,shape为2*3
创建张量的方法例如:
torch.FloatTensor——32位浮点类型
torch.ByteTensor——无符号8位整数
torch.LongTensor——有符号64位整数
a = torch.FloatTensor([2, 3])
b = torch.FloarTensor([[2, 3]])
a和b是不相同的
torch.tensor()接受数组来创建张量
torch.tensor()创建的张量dtype=torch.int64
torch.Tensor()创建的张量dtype=torch.float32
nn.Module子类提供的方法:
- parameters():返回需要进行梯度计算的变量的迭代器
- zero_grad():将所有参数的梯度初始化为零
- to(device):将所有模块参数移至给定的设备(CPU或GPU)
类Sequential,将不同的层串起来:
损失函数:
- nn.MSELoss:参数之间的均方误差,是回归问题的标准损失。
- nn.BCELoss和nn.BCEWithLogits:二分类交叉熵损失。
- nn.CrossEntropyLoss和nn.NLLLoss:最大似然标准,用于多分类问题。
优化器:
基本优化器的职责是获取模型参数的梯度,并更改这些参数来降低损失值。在torch.optim包中提供了一些优化器
- SGD:具有可选动量的普通随机梯度下降算法
- RMSprop:G Hinton提出的优化器
- Adagrad:自适应梯度优化器
- Adam:非常成功且流行的优化器,是RMSprop和Adagrad的组合