【AI】数据操作

本文介绍了如何在PyTorch中进行基本的数据操作,包括张量的创建、形状变换、元素运算、广播机制以及内存管理,展示了如何使用torch库进行数组处理和优化内存使用。
摘要由CSDN通过智能技术生成

数据操作

首先,我们导入`torch`。请注意,虽然它被称为PyTorch,但是代码中使用`torch`而不是`pytorch`

[1]:

import torch

张量表示一个由数值组成的数组,这个数组可能有多个维度

[2]:

x = torch.arange(12)

x

[2]:

tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])

可以通过张量的shape属性来访问张量(沿每个轴的长度)的形状 和张量中元素的总数

[3]:

x.shape

[3]:

torch.Size([12])

[6]:

Selection deleted

x.numel()

[6]:

12

要想改变一个张量的形状而不改变元素数量和元素值,可以调用reshape函数

[7]:

X = x.reshape(3, 4)

X

[7]:

tensor([[ 0,  1,  2,  3],
        [ 4,  5,  6,  7],
        [ 8,  9, 10, 11]])

使用全0、全1、其他常量,或者从特定分布中随机采样的数字

[6]:

torch.zeros((2, 3, 4))

[6]:

tensor([[[0., 0., 0., 0.],
         [0., 0., 0., 0.],
         [0., 0., 0., 0.]],

        [[0., 0., 0., 0.],
         [0., 0., 0., 0.],
         [0., 0., 0., 0.]]])

[7]:

torch.ones((2, 3, 4))

[7]:

tensor([[[1., 1., 1., 1.],
         [1., 1., 1., 1.],
         [1., 1., 1., 1.]],

        [[1., 1., 1., 1.],
         [1., 1., 1., 1.],
         [1., 1., 1., 1.]]])

[8]:

torch.randn(3, 4)

[8]:

tensor([[-0.0135,  0.0665,  0.0912,  0.3212],
        [ 1.4653,  0.1843, -1.6995, -0.3036],
        [ 1.7646,  1.0450,  0.2457, -0.7732]])

通过提供包含数值的Python列表(或嵌套列表),来为所需张量中的每个元素赋予确定值

[9]:

torch.tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])

[9]:

tensor([[2, 1, 4, 3],
        [1, 2, 3, 4],
        [4, 3, 2, 1]])

常见的标准算术运算符(+-*/**)都可以被升级为按元素运算

[10]:

x = torch.tensor([1.0, 2, 4, 8])

y = torch.tensor([2, 2, 2, 2])

x + y, x - y, x * y, x / y, x ** y

[10]:

(tensor([ 3.,  4.,  6., 10.]),
 tensor([-1.,  0.,  2.,  6.]),
 tensor([ 2.,  4.,  8., 16.]),
 tensor([0.5000, 1.0000, 2.0000, 4.0000]),
 tensor([ 1.,  4., 16., 64.]))

“按元素”方式可以应用更多的计算

[11]:

torch.exp(x)

[11]:

tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])

我们也可以把多个张量连结(concatenate)在一起

[12]:

X = torch.arange(12, dtype=torch.float32).reshape((3,4))

Y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])

torch.cat((X, Y), dim=0), torch.cat((X, Y), dim=1)

[12]:

(tensor([[ 0.,  1.,  2.,  3.],
         [ 4.,  5.,  6.,  7.],
         [ 8.,  9., 10., 11.],
         [ 2.,  1.,  4.,  3.],
         [ 1.,  2.,  3.,  4.],
         [ 4.,  3.,  2.,  1.]]),
 tensor([[ 0.,  1.,  2.,  3.,  2.,  1.,  4.,  3.],
         [ 4.,  5.,  6.,  7.,  1.,  2.,  3.,  4.],
         [ 8.,  9., 10., 11.,  4.,  3.,  2.,  1.]]))

通过逻辑运算符构建二元张量

[13]:

X == Y

[13]:

tensor([[False,  True, False,  True],
        [False, False, False, False],
        [False, False, False, False]])

对张量中的所有元素进行求和,会产生一个单元素张量

[14]:

X.sum()

[14]:

tensor(66.)

即使形状不同,我们仍然可以通过调用 广播机制(broadcasting mechanism)来执行按元素操作

[15]:

a = torch.arange(3).reshape((3, 1))

b = torch.arange(2).reshape((1, 2))

a, b

[15]:

(tensor([[0],
         [1],
         [2]]),
 tensor([[0, 1]]))

[16]:

a + b

[16]:

tensor([[0, 1],
        [1, 2],
        [2, 3]])

可以用[-1]选择最后一个元素,可以用[1:3]选择第二个和第三个元素

[17]:

X[-1], X[1:3]

[17]:

(tensor([ 8.,  9., 10., 11.]),
 tensor([[ 4.,  5.,  6.,  7.],
         [ 8.,  9., 10., 11.]]))

除读取外,我们还可以通过指定索引来将元素写入矩阵

[18]:

X[1, 2] = 9

X

[18]:

tensor([[ 0.,  1.,  2.,  3.],
        [ 4.,  5.,  9.,  7.],
        [ 8.,  9., 10., 11.]])

为多个元素赋值相同的值,我们只需要索引所有元素,然后为它们赋值

[19]:

X[0:2, :] = 12

X

[19]:

tensor([[12., 12., 12., 12.],
        [12., 12., 12., 12.],
        [ 8.,  9., 10., 11.]])

运行一些操作可能会导致为新结果分配内存

[20]:

before = id(Y)

Y = Y + X

id(Y) == before

[20]:

False

执行原地操作

[21]:

Z = torch.zeros_like(Y)

print('id(Z):', id(Z))

Z[:] = X + Y

print('id(Z):', id(Z))

id(Z): 140327634811696
id(Z): 140327634811696

如果在后续计算中没有重复使用X, 我们也可以使用X[:] = X + YX += Y来减少操作的内存开销

[22]:

before = id(X)

X += Y

id(X) == before

[22]:

True

转换为NumPy张量(ndarray

[23]:

A = X.numpy()

B = torch.tensor(A)

type(A), type(B)

[23]:

(numpy.ndarray, torch.Tensor)

将大小为1的张量转换为Python标量

[24]:

a = torch.tensor([3.5])

a, a.item(), float(a), int(a)

[24]:

(tensor([3.5000]), 3.5, 3.5, 3)
  • 5
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值