目标
- 知道张量和Pytorch中的张量
- 知道pytorch中如何创建张量
- 知道pytorch中tensor的常见方法
- 知道pytorch中tensor的数据类型
- 知道pytorcht中如何实现tensor在cpu和cuda中转化
1. 张量Tensor
张量是一个统称,其中包含很多类型
- 0阶张量:标量、常数,0-D Tensor
- 1阶张量:向量,1-D Tensor
- 1阶张量:矩阵,2-D Tensor
- 3阶张量
…
2. Pytorch中创建张量
- 使用python中的列表或者序列创建tensor
torch.tensor([[1., -1.], [1., -1.]])
tensor([[ 1.0000, -1.0000],
[ 1.0000, -1.0000]])
- 使用numpy中的数组创建tensor
torch.tensor(np.array([[1, 2, 3], [4, 5, 6]]))
tensor([[ 1, 2, 3],
[ 4, 5, 6]])
- 使用torch的api创建
(1)torch.empty([3,4])
创建3行4列的空的tensor,会用无用数据进行填充
(2)torch.ones([3,4])
创建3行4列的全为1的tensor
(3)torch.zeros([3,4])
创建3行4列的全为0的tensor
(4)torch.rand([3,4])
创建3行4列的随机值的tensor,随机区间是[0,1)
(5) torch.randint(low=0,high=10,size=[3,4])
创建3行4列的随机整数的tensor,随机区间是[low, high)
(6) torch.randn([3,4])
创建3行4列的随机数的tensor,随机值的分布式均值为0,方差为1
3. Pytorch中tensor的常用方法
- 获取tensor中的数据(当tensor中只有一个元素可用时):
tensor.item()
- 转换为numpy数组
- 获取形状:
tensor.size()
注:这块也可以使用t2.shape
不加括号,但是跟size相比不能像下面这样取某一维度的值
- 形状改变:
tensor.view((3,4))
。类似numpy中的reshape,是一种浅拷贝(不会对原数据改变,会输出一个新值),仅仅是形状发生改变,必须保证转换前后总的数据个数是一样的
这种方式本质上是将数据拉成一个长条,然后在按照shape分块
第一个(31行)-1表示有多少个数,直接就输出一个一维的tensor
第二个(32行)-1表示会自动适应前面那个数决定之后的维度
- 获取维数(阶数):
tensor.dim()
- 获取最大值:
tensor.max()
,最小值:tensor.min()
,标准差:tensor.std()
- 转置:
- 二维矩阵:
tensor.t()
,tensor.transpose(0,1)
- 高维:
tensor.transpose(1,2)
,tensor.permute(0,2,1)
tensor[1,3]
获取tensor中第一行第三列的值tensor[1,3]=100
对tensor中第一行第三列的位置进行赋值100
- tensor的切片
4. tensor的数据类型
tensor中的数据类型非常多,常见类型如下:
上图中的Tensor types表示这种type的tensor是其实例
- 获取tensor的数据类型:
tensor.dtype
- 创建数据的时候指定类型
3. 类型的修改
5. tensor的其他操作
- tensor和tensor相加
注意:带下划线的方法(比如:add_)会对tensor进行就地修改
- tensor和数字操作
- CUDA中的tensor
CUDA(Compute Unified Device Architecture),是NVIDIA推出的运算平台。CUDATM 是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。
torch.cuda
这个模块增加了对CUDA tensor的支持,能够在CPU和GPU上使用相同的方法操作tensor
通过.to
方法能够把一个tensor转移到另外一个设备(比如从CPU到GPU)
通过前面的学习,可以发现torch的各种操作几乎和numpy一样
视频参考
Python人工智能就业班-4(人工智能) 6、7、(8)、9