学习目标:
30天深度学习入门
- 一周掌握 pytorch基础知识
学习内容:
Pytorch 基础知识掌握
1.入门
#导入pytorch 深度学习工具包
import torch
#生成tensor
x = torch.arange(12)
#获取tensor的尺寸
x.shape
#重新定义tensor的尺寸
x.reshape(3,4)
#定义一个(2,3,4)尺寸的张量初始值为0
torch.zeros(2,3,4)
#定义一个(2,3,4)尺寸的张量初始值为1
torch.ones(2,3,4)
#定义一个(2,3,4)尺寸的张量初始值为任意值
torch.randn(2,3,4)
2.运算符
#张量的运算方法
x = torch.tensor([1.0, 2, 4, 8])
y = torch.tensor([2, 2, 2, 2])
x+y,x-y,x*y,x/y,x**y
#幂运算
torch.exp(x)
#多个张量的连接
X = torch.arange(12,dtype=torch.float32).reshape(3,4)
Y = torch.tensor([[2.0,1,4,3],[1,2,3,4],[4,3,2,1]])
torch.cat((X,Y),dim=0),torch.cat((X,Y),dim=1)
3.广播机制
#定义一个3行1列的矩阵a
a = torch.arange(3).reshape((3,1))
#定义一个1行2列的矩阵b
b = torch.arange(2).reshape((1,2))
a,b
#通过广播机制来执行按元素操作
a+b
4.索引和切片
X = torch.arange(12,dtype=torch.float32).reshape(3,4)
Y = torch.tensor([[2.0,1,4,3],[1,2,3,4],[4,3,2,1]])
#索引和切片
X = torch.arange(12,dtype=torch.float32).reshape(3,4)
Y = torch.tensor([[2.0,1,4,3],[1,2,3,4],[4,3,2,1]])
#第一个元素的索引是0,最后一个的索引是-1
X,X[-1],X[1:3]
#将第2行第三列的值置为9
X[1,2] = 9
X
#多个元素赋值 将第一行和第二行所有元素置为12
X[0:2,:] = 12
X
5.节省内存
#分配地址
before = id(Y)
Y = Y + X
id(Y) == before
这种方式是不可取
- 因为在机器学习中,我们可能有数百兆的参数,并且在一秒内多次更新所有的参数,通常情况下我们希望原地执行这些更新。
- 如果我们不原地更新,其他引用仍然会指向旧的内存地址,这样有些代码可能无意中引用旧的参数。
为了避免我们建议如下操作
Z = torch.zeros_like(Y)
print('id(Z)',id(Z))
Z[:] = X + Y
print('id(Z)',id(Z))
6.python对象和torch tensor相互转换
#转换为其他Python对象
#numpy->tensor
A = X.numpy()
B = torch.tensor(A)
type(A),type(B)
#tensor->numpy
a = torch.tensor([3.5])
a,a.item(),float(a),int(a)