今天是Pytorch专题的第二篇,我们继续来了解一下Pytorch中Tensor的用法。
上一篇文章当中我们简单介绍了一下如何创建一个Tensor,今天我们继续深入Tensor的其他用法。
tensor操作
size()和shape
我们可以用size()函数或者直接调用tensor当中的shape属性获取一个tensor的大小,这两者是等价的,一般情况下我们用前者多一些。
![154f412d608ce91fc0cbc2ba4446963f.png](https://img-blog.csdnimg.cn/img_convert/154f412d608ce91fc0cbc2ba4446963f.png)
view
我们可以通过view改变一个tensor的shape,它会根据我们指定的shape返回一个新的tensor。
![a25d7361b17b5550ad0ff686171962df.png](https://img-blog.csdnimg.cn/img_convert/a25d7361b17b5550ad0ff686171962df.png)
需要注意的是,view返回的是原数据的一个引用,也就是说我们改变原数据,view出来的结果会同样发生变化。
![667e7b984bce665bdc4f05b48ba1e5b0.png](https://img-blog.csdnimg.cn/img_convert/667e7b984bce665bdc4f05b48ba1e5b0.png)
在上面这个例子当中,我们把原tensor x中的[0, 1]的位置修改成了2,我们print y会发现y当中的元素同样发生了变化。
numel
我们可以用numel获取tenosr当中元素的数量:
![db72b80473b6c0fb169e9fe696841da3.png](https://img-blog.csdnimg.cn/img_convert/db72b80473b6c0fb169e9fe696841da3.png)
squeeze和unsqueeze
我们可以用squeeze来减少tensor的维度,而使用unsqueeze来增加一个tenor的维度。
其中unsqueeze接收一个参数,允许我们指定我们希望增加的维度。我们可以通过size明显看到数据的变化:
![4bad4a748df270ac493080f18cc56692.png](https://img-blog.csdnimg.cn/img_convert/4bad4a748df270ac493080f18cc56692.png)
squeeze是减少维度,相比之下没有那么多操作,它会自动将长度是1的维度消除,如果没有一个维度长度是1,也就是说当前已经是最简的形式,那么什么也不会变化。
![7ab6de197d9ca3c1ae5e2ba5c92cfe50.png](https://img-blog.csdnimg.cn/img_convert/7ab6de197d9ca3c1ae5e2ba5c92cfe50.png)
也支持使用另一个数组作为索引访问数据:
![4977aec4024ac3d3fd45bd87d549965e.png](https://img-blog.csdnimg.cn/img_convert/4977aec4024ac3d3fd45bd87d549965e.png)
Tensor索引
Tensor当中支持与Numpy数组类似的索引操作,语法也非常相似。和Numpy一样,索引得到的结果是原数据的引用,也就是说我们修改其中一个,另一个也会跟着发生变动。
它支持多维索引:
![f6bc8da8245acf839b5f6627737701c7.png](https://img-blog.csdnimg.cn/img_convert/f6bc8da8245acf839b5f6627737701c7.png)
也支持切片:
![e50cb723657a244652bace7c58137806.png](https://img-blog.csdnimg.cn/img_convert/e50cb723657a244652bace7c58137806.png)
也可以通过bool数组获取元素:
![29dc6384027801117f422ee56a180280.png](https://img-blog.csdnimg.cn/img_convert/29dc6384027801117f422ee56a180280.png)
Tensor运算
Tensor当中有大量的运算api,我们只列举其中最常用的几种,剩下的使用频率不高,大家可以用到的时候再去查阅相应的文档。
加减乘除
Tensor当中支持好几种运算的方法,我们以加法为例来了解一下。首先支持通过符号直接运算:
![b27e17dc3392609aeb5302cbf8c9166d.png](https://img-blog.csdnimg.cn/img_convert/b27e17dc3392609aeb5302cbf8c9166d.png)
第二种方法是我们可以调用torch当中的函数,比如加法的函数就是add。
![bb88f4f03e426e8068baf02b724e2f8b.png](https://img-blog.csdnimg.cn/img_convert/bb88f4f03e426e8068baf02b724e2f8b.png)
如果使用torch当中的函数进行计算的话,它还支持out参数,允许我们传入一个tensor,它会将计算结果存储tensor当中。
![98a552f2807b1f06ab4f04459a7b8e5c.png](https://img-blog.csdnimg.cn/img_convert/98a552f2807b1f06ab4f04459a7b8e5c.png)
除此之外,它还允许我们进行inplace操作,也就是在原tensor值的基础上直接修改,而不是通过函数值返回。和Numpy当中传入inplace参数的设计不同,Tensor当中是通过api区分的,在原函数名下增加一个下划线即是inplace的api,比如add的inplace方法是add_。
![d39b7ef0d3b5774348b8bb3daa1fb79d.png](https://img-blog.csdnimg.cn/img_convert/d39b7ef0d3b5774348b8bb3daa1fb79d.png)
矩阵点乘
在机器学习领域当中,矩阵点乘是一个经常用到的操作。因为为了节省时间,我们通常会把样本和特征以及各类参数向量化,通过矩阵或者是向量点乘的形式来进行加权求和、线性变换等操作。所以矩阵点乘非常重要,必定会用到。
在Numpy当中我们通过dot函数来计算两个矩阵之间的内积,而在Tensor当中做了严格的区分,只有一维的向量才可以使用dot计算点乘,多维的向量只能使用matmul计算矩阵的乘法。为了简化,还可以使用mm来代替matmul。如果你学过TensorFlow的话,你会发现matmul是TensorFlow当中点乘的api,Pytorch当中沿用了这个命名。
![c5eb747c1f0b73030d330cc1bda46f6a.png](https://img-blog.csdnimg.cn/img_convert/c5eb747c1f0b73030d330cc1bda46f6a.png)
可以看到,mm和matmul计算得到的结果是一致的。
类型转换
在Numpy当中,我们通过astype方法转换类型,而在Tensor当中将这个方法拆分,每一种类型都有自己的转化函数。
比如我们想要将tensor转化成int类型,调用的是int()方法,想要转化成float类型调用的是float()方法。调用这些方法之后,会返回一个新的tensor。
![71694cdfdb852890db9ec0f2df58d3af.png](https://img-blog.csdnimg.cn/img_convert/71694cdfdb852890db9ec0f2df58d3af.png)
Tensor当中定义了7种CPU类型和8种GPU类型:
![54483f0b829529a2de1d6ae221a3e71c.png](https://img-blog.csdnimg.cn/img_convert/54483f0b829529a2de1d6ae221a3e71c.png)
我们可以调用内置函数将它们互相转化,这些转换函数有:long(), half(), int(), float(), double(), byte(), char(), short()。我相信这些函数的含义大家应该都可以理解。
转置与变形
Tensor当中的转置操作和Numpy中不太相同,在Numpy当中,我们通过.T或者是transpose方法来进行矩阵的转置。如果是高维数组进行转置,那么Numpy会将它的维度完全翻转。
![2e7bebd904299b0226c1ac356de730b4.png](https://img-blog.csdnimg.cn/img_convert/2e7bebd904299b0226c1ac356de730b4.png)
而在Tensor当中区分了二维数组和高维数组,二维数组的转置使用的函数是t(),它的用法和.T一样,会将二维数组的两个轴调换。
![82a21fc48b9e2781117f1f2bcc0e0b8f.png](https://img-blog.csdnimg.cn/img_convert/82a21fc48b9e2781117f1f2bcc0e0b8f.png)
如果是高维数组调用t函数会报错,如果我们要变换高维数组的形状,可以调用transpose和permute两个方法。先说transpose方法,它接收两个int型参数,表示需要调换的两个轴。比如一个形状是[4, 3, 2]的矩阵,我们可以通过0,1,2表示它的所有轴,传入两个,指定想要调换的两个轴:
![a100a5008bafc2dfec1a063b3047c53a.png](https://img-blog.csdnimg.cn/img_convert/a100a5008bafc2dfec1a063b3047c53a.png)
而permute可以调换多个轴的位置,所以它接受的参数是一个int型的不定参数。我们传入我们希望得到的轴的顺序,Tensor会根据我们传入的轴的顺序对数据进行翻转:
![38e2415212f46eebecd96d7c9ee31e2f.png](https://img-blog.csdnimg.cn/img_convert/38e2415212f46eebecd96d7c9ee31e2f.png)
另外,t和transpose支持inplace操作,而permute不行,这也是他们显著的区别之一。
设备之间移动
我们可以通过device这个属性看到tensor当前所在的设备:
![7810aec3781103d7a71233431f863fc9.png](https://img-blog.csdnimg.cn/img_convert/7810aec3781103d7a71233431f863fc9.png)
我们可以通过cuda函数将一个在CPU的tensor转移到GPU,但是不推荐这么干。比较好的办法是使用to方法来进行设备转移。
![13dccab07cccbf188f732520bf6a6c20.png](https://img-blog.csdnimg.cn/img_convert/13dccab07cccbf188f732520bf6a6c20.png)
将tensor转移到GPU上进行计算可以利用GPU的并发性能提升计算的效率,这是Pytorch当中常用的手段。to方法不仅可以改变tensor的设备,还可以同时变更tensor当中元素的类型:
![329b0915b37ad25ec108ca974af4363d.png](https://img-blog.csdnimg.cn/img_convert/329b0915b37ad25ec108ca974af4363d.png)
总结
虽然tensor拥有许多额外的功能和计算函数,但是tensor的意义并不仅仅如此。最重要的是,它可以提升我们的计算速度。这当中的原理也很简单,因为在Python的List当中,每一个元素其实都是一个对象。即使我们存储的是一个int或者是float,Python都会将它们封装成一个对象,这会带来额外的开销。如果只是少量的数据影响不大,如果是上百万甚至是更大的量级,那么两者的差距就会非常大。另外一点就是tensor库的底层也是C和C++,运行效率显然Python更高。所以我们不能简单地把它理解成一个计算包,对于深度学习来说,它并不仅仅只是计算。
Tensor当中还有许多其他的方法,这其中许多实用频率很低加上篇幅的限制,我们不能一一穷尽,大家只需要对Tensor库整体有一个映像,一些具体的使用方法和细节可以用到的时候再进行查询。
本文基于滴滴云GPU完成,租借滴滴云GPU,使用滴滴云AI大师码2323,享受9折优惠。
如果喜欢本文,可以的话,请点个关注,给我一点鼓励,也方便获取更多文章。
本文始发于个公众号: TechFlow