PyTorch的学习笔记01-基础中的基础

主要内容源于对PyTorch的doc的阅读: Doc

Tensor的element-wise的乘法是直接使用 * 。而Tensor之间的矩阵乘法使用Tensor.mm()方法。


仅记录了我认为比较常用和有用的API。


torch.is_tensor(obj),若obj为Tensor类型,那么返回True。

torch.numel(obj),返回Tensor对象中的元素总数。

torch.eye(n),返回一个单位方阵,和MATLAB的eye()非常像。还有其他参数。

torch.from_numpy(obj),利用一个numpy的array创建Tensor。注意,若obj原来是1列或者1行,无论obj是否为2维,所生成的Tensor都是一阶的,若需要2阶的Tensor,需要利用view()函数进行转换。

torch.linspace(start, end, steps),返回一个1维的Tensor。

torch.ones(),与MATLAB的ones很接近。

torch.ones_like(input),返回一个全1的Tensor,其维度与input相一致。

torch.arange(start, end, step),直接返回一个Tensor而不是一个迭代器。

torch.zeros(),与MATLAB的zeros很像。

torch.zeros_like(),与torch.ones_like()类似。

torch.cat(seq, dim),将tuple seq中描述的Tensor进行连接,通过实例说明用法。

torch.chunk(input, chunks, dim),与torch.cat()的作用相反。注意,返回值的数量会随chunks的值而发生变化.

torch.index_select(input, dim, index),注意,index是一个1D的Tensor。

torch.masked_select(input, mask),有点像MATLAB中利用bool类型矩阵进行索引的功能,要求mask是ByteTensor类型的Tensor。参考示例代码。注意,执行结果是一个1D的Tensor。

torch.squeeze(input),将input中维度数值为1的维度去除。可以指定某一维度。结果是共享input的内存的。

torch.t(input),将input进行转置,不是in place。输出的结果是共享内存的。要求input为2D。

torch.unsqeeze(input, dim),在input目前的dim维度上增加一维。


好多random sampling的函数接口,还有inplace的。


torch.save()和torch.load()


不常见的运算函数

torch.clamp(input, min, max),将input的值约束在min和max之间

torch.trunc(input),将input的小数部分舍去。


torch.norm()


还有一些统计功能的函数。


torch.eq(input, other),返回一个Tensor。

torch.equal(input, other),返回True,False。


还有一些用于比较的函数,包括ne(), kthmin(), topk()


torch.grad(),与MATLAB的diag可能不同,这个函数将返回一个与原Tensor维度相同的Tensor。

torch.trace(),

torch.tril()和torch.triu(),返回下三角和上三角Tensor。


有一些用于batch上乘法,加法的函数。

torch.btriface()和torch.btrisolve(),LU分解和线性求解。

torch.dot(), torch.eig(), torch.inverse(), torch.matmul(), torch.mv()等函数。有各种decomposition的函数。


简单示例代码

import numpy as np
import torch
import copy

if __name__ == '__main__':
	t1 = torch.randn(4, 4)

	n2 = np.random.rand(3)
	n2 = n2.reshape(3, 1)

	tn2 = torch.from_numpy(n2)

	n3 = copy.deepcopy(n2)
	n3 = n3.reshape(1,3)

	tn3 = torch.from_numpy(n3)

	# cat().

	t4 = torch.cat( (tn3, tn3), dim = 0 )
	t5 = torch.cat( (tn3, tn3), dim = 1 )
	t4_2 = torch.cat( (t4, tn3), dim = 0 )

	# thunk().

	t6_0, t6_1 = torch.chunk( t1, 2, dim = 0 )
	t7_0, t7_1 = torch.chunk( t1, 2, dim = 1 )

	# masked_select().

	t8_mask = t1.ge(0.1)
	t8 = torch.masked_select( t1, t8_mask )

PyTorch 最开始的教程里给出了将Tensor转存在GPU上的方法

if torch.cuda.is_available():
    device = torch.device("cuda")
    y = torch.ones_like(x, device=device)
    x = x.to(device)
    z = x + y
    print(z)
    print(z.to("cpu", torch.double))




发布了73 篇原创文章 · 获赞 24 · 访问量 13万+
展开阅读全文

没有更多推荐了,返回首页

©️2019 CSDN 皮肤主题: 大白 设计师: CSDN官方博客

分享到微信朋友圈

×

扫一扫,手机浏览