Pytorch学习笔记(一)——数据操作(基础运算、拼接)

 Pytorch基础运算

加 + 、减 - 、乘 * 、幂次 ** 

x = torch.tensor([1.0, 2, 4, 8])
y = torch.tensor([2, 2, 2, 2])
x + y, x - y,x * y, x / y, x ** y # **运算符是求幂级
out:
(tensor([ 3.,  4.,  6., 10.]),
 tensor([-1.,  0.,  2.,  6.]),
 tensor([ 2.,  4.,  8., 16.]),
 tensor([0.5000, 1.0000, 2.0000, 4.0000]),
 tensor([ 1.,  4., 16., 64.]))

torch.exp()        是求e的指数

torch.exp(x)

out:
    tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])

torch.cat(inputs, dim = ?)        是对张量进行维度上的拼接

X = torch.arange(12, dtype = torch.float32).reshape((3,2,2))
Y = torch.tensor([[[2.0, 1],[1, 2]],[[4, 3],[1,2]],[[3.,5],[1,3]]])
torch.cat((X, Y), dim = 0), torch.cat((X, Y),dim = 1),torch.cat((X,Y), dim = 2)
dim = 0:
(tensor([[[ 0.,  1.],
          [ 2.,  3.]],
 
         [[ 4.,  5.],
          [ 6.,  7.]],
 
         [[ 8.,  9.],
          [10., 11.]],
 
         [[ 2.,  1.],
          [ 1.,  2.]],
 
         [[ 4.,  3.],
          [ 1.,  2.]],
 
         [[ 3.,  5.],
          [ 1.,  3.]]]),
dim = 1:
tensor([[[ 0.,  1.],
          [ 2.,  3.],
          [ 2.,  1.],
          [ 1.,  2.]],
 
         [[ 4.,  5.],
          [ 6.,  7.],
          [ 4.,  3.],
          [ 1.,  2.]],
 
         [[ 8.,  9.],
          [10., 11.],
          [ 3.,  5.],
          [ 1.,  3.]]]),
dim = 2:
tensor([[[ 0.,  1.,  2.,  1.],
          [ 2.,  3.,  1.,  2.]],
 
         [[ 4.,  5.,  4.,  3.],
          [ 6.,  7.,  1.,  2.]],
 
         [[ 8.,  9.,  3.,  5.],
          [10., 11.,  1.,  3.]]]))

dim的取值在0到(最大维度-1)之间,也可取负(-最大维度)至-1,其中dim = (-最大维度)等价与dim = 0。

也就是张量维度为3,dim最大可取2。正如上述代码中,因为构建的矩阵维度为三维,若dim = 3 则会报错。

以上述代码为例,dim = 0,则矩阵在第一个维度上拼接,(3,2,2)->(6,2,2);

dim = 1,则在第二个维度上拼接,(3,2,2)->(3,4,2);dim = 2,同理。

另外,即使两个矩阵的形状不同,也可通过广播机制来执行元素操作。

input:
a = torch.arange(3).reshape((3,1))
b = torch.arange(2).reshape((1,2))
a,b

out:
(tensor([[0],
         [1],
         [2]]),
 tensor([[0, 1]]))



input:
a + b

out:
tensor([[0, 1],
        [1, 2],
        [2, 3]])

  • 10
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Pytorch是机器学习中的一个重要框架,它与TensorFlow一起被认为是机器学习的两大框架。Pytorch学习可以从以下几个方面入手: 1. Pytorch基本语法:了解Pytorch的基本语法和操作,包括张量(Tensors)的创建、导入torch库、基本运算等\[2\]。 2. Pytorch中的autograd:了解autograd的概念和使用方法,它是Pytorch中用于自动计算梯度的工具,可以方便地进行反向传播\[2\]。 3. 使用Pytorch构建一个神经网络:学习使用torch.nn库构建神经网络的典型流程,包括定义网络结构、损失函数、反向传播和更新网络参数等\[2\]。 4. 使用Pytorch构建一个分类器:了解如何使用Pytorch构建一个分类器,包括任务和数据介绍、训练分类器的步骤以及在GPU上进行训练等\[2\]。 5. Pytorch的安装:可以通过pip命令安装Pytorch,具体命令为"pip install torch torchvision torchaudio",这样就可以在Python环境中使用Pytorch了\[3\]。 以上是一些关于Pytorch学习笔记,希望对你有帮助。如果你需要更详细的学习资料,可以参考引用\[1\]中提到的网上帖子,或者查阅Pytorch官方文档。 #### 引用[.reference_title] - *1* [pytorch自学笔记](https://blog.csdn.net/qq_41597915/article/details/123415393)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Pytorch学习笔记](https://blog.csdn.net/pizm123/article/details/126748381)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值