Pytorch学习笔记--常用函数torch.einsum()总结5

目录

1--torch.einsum()函数

1-1--常用用法

1-2--运算规则

2--参考链接


1--torch.einsum()函数

1-1--常用用法

import torch

B = 2
C = 3 
T = 4
N = 5

a = torch.randint(0, 5, [B, C, T, N], dtype = float)  # 从0-5中生成维度为[B, C, T, N]的随机整数数据
b = torch.randint(0, 5, [B, C, N, N], dtype = float)

c = torch.einsum('bctn,bcmn->bctm', a, b)
print(a, a.shape)
print(b, b.shape)
print(c, c.shape)
tensor([[[[3., 3., 2., 0., 4.],
          [3., 3., 0., 1., 0.],
          [3., 0., 4., 3., 4.],
          [3., 3., 2., 3., 2.]],

         [[1., 1., 3., 0., 4.],
          [0., 0., 1., 3., 0.],
          [0., 4., 3., 2., 4.],
          [0., 0., 3., 2., 3.]],

         [[4., 3., 3., 1., 0.],
          [2., 2., 0., 3., 0.],
          [3., 1., 2., 3., 4.],
          [2., 3., 1., 2., 2.]]],


        [[[0., 3., 0., 4., 4.],
          [2., 1., 1., 0., 1.],
          [4., 2., 4., 3., 4.],
          [3., 0., 4., 1., 0.]],

         [[3., 4., 0., 1., 4.],
          [2., 3., 3., 0., 1.],
          [4., 2., 2., 0., 3.],
          [1., 3., 4., 1., 4.]],

         [[0., 2., 0., 1., 4.],
          [4., 2., 3., 0., 3.],
          [4., 3., 1., 0., 2.],
          [4., 4., 1., 3., 4.]]]], dtype=torch.float64) torch.Size([2, 3, 4, 5])
tensor([[[[1., 3., 1., 2., 0.],
          [2., 4., 0., 1., 1.],
          [2., 1., 3., 0., 2.],
          [0., 4., 3., 0., 0.],
          [1., 4., 0., 4., 0.]],

         [[4., 1., 3., 1., 4.],
          [0., 3., 0., 2., 0.],
          [3., 0., 1., 2., 0.],
          [0., 4., 4., 2., 4.],
          [1., 2., 4., 1., 2.]],

         [[2., 0., 3., 0., 3.],
          [4., 2., 4., 0., 3.],
          [2., 4., 4., 0., 2.],
          [3., 1., 2., 2., 0.],
          [4., 1., 0., 4., 3.]]],


        [[[0., 1., 0., 3., 4.],
          [0., 2., 2., 0., 0.],
          [3., 2., 3., 4., 4.],
          [3., 3., 3., 4., 4.],
          [0., 1., 2., 2., 2.]],

         [[4., 2., 2., 4., 3.],
          [3., 4., 3., 2., 2.],
          [4., 1., 4., 4., 4.],
          [4., 0., 1., 1., 1.],
          [4., 0., 4., 1., 3.]],

         [[4., 2., 0., 0., 2.],
          [4., 1., 1., 2., 1.],
          [1., 4., 4., 0., 1.],
          [1., 0., 3., 3., 0.],
          [1., 4., 4., 1., 1.]]]], dtype=torch.float64) torch.Size([2, 3, 5, 5])
tensor([[[[14., 22., 23., 18., 15.],
          [14., 19.,  9., 12., 19.],
          [13., 13., 26., 12., 15.],
          [20., 23., 19., 18., 27.]],

         [[30.,  3.,  6., 32., 23.],
          [ 6.,  6.,  7., 10.,  7.],
          [31., 16.,  7., 48., 30.],
          [23.,  4.,  7., 28., 20.]],

         [[17., 34., 32., 23., 23.],
          [ 4., 12., 12., 14., 22.],
          [24., 34., 26., 20., 37.],
          [13., 24., 24., 15., 25.]]],


        [[[31.,  6., 38., 41., 19.],
          [ 5.,  4., 15., 16.,  5.],
          [27., 12., 56., 58., 24.],
          [ 3.,  8., 25., 25., 10.]],

         [[36., 35., 36., 17., 25.],
          [23., 29., 27., 12., 23.],
          [33., 32., 38., 21., 33.],
          [34., 37., 43., 13., 33.]],

         [[12.,  8., 12.,  3., 13.],
          [26., 24., 27., 13., 27.],
          [26., 22., 22.,  7., 22.],
          [32., 31., 28., 16., 31.]]]], dtype=torch.float64) torch.Size([2, 3, 4, 5])

1-2--运算规则

参数介绍torch.einsum()函数有两个输入参数

①第一个参数是equation,即代码中的字符串'bctn,bcmn->bctm',表示输入输出的维度大小;

②第二个参数是实际输入的tensor列表,即代码中的张量a和张量b。

索引介绍torch.einsum()函数有两种索引参数

自由索引:出现在equation箭头右边的索引(字母),比如代码中的'bctm';

求和索引:只出现在equation箭头左边的索引(字母),比如代码中的索引'n'。求和索引的作用是中间计算结果必须先在这个索引维度上进行求和,再输出求和后的结果。

基本规则介绍torch.einsum()函数有三条基本规则

规则一:在equation箭头左侧不同输入之间重复出现的索引,其作用是把输入张量依据该维度做乘法操作(即相应维度的对应数据相乘)。如代码的equation为'bctn,bcmn->bctm',其箭头左侧不同输入之间重复出现的索引为:'b','c','n',表示沿着这三个维度进行乘法运算。

规则二出现在equation箭头左侧的索引,表示中间计算结果需要在这个维度上进行求和运算(即上文中介绍的求和索引)。如代码中的索引'n'只出现在箭头左侧,则沿着该维度做乘法操作后需要将结果进行求和再输出(可以理解成矩阵相乘,即对应元素相乘再相加)。

规则三:equation箭头右侧的索引顺序可以是任意的,即进行维度交换。

易懂例子:

import torch

x = torch.randint(0, 5, [2, 3], dtype = float)
y = torch.randint(0, 5, [3, 4], dtype = float)

z1 = torch.einsum('ij,jk->ik', x, y)
z2 = torch.einsum('ij,jk->ki', x, y)
print(x, x.shape)
print(y, y.shape)
print(z1, z1.shape)
print(z2, z2.shape)
tensor([[3., 1., 4.],
        [2., 3., 2.]], dtype=torch.float64) torch.Size([2, 3])
tensor([[0., 3., 1., 4.],
        [4., 0., 2., 3.],
        [0., 0., 2., 2.]], dtype=torch.float64) torch.Size([3, 4])
tensor([[ 4.,  9., 13., 23.],
        [12.,  6., 12., 21.]], dtype=torch.float64) torch.Size([2, 4])
tensor([[ 4., 12.],
        [ 9.,  6.],
        [13., 12.],
        [23., 21.]], dtype=torch.float64) torch.Size([4, 2])

实例解答(实例等价于矩阵乘法): 

①自由索引为'i'和'k',其顺序可以任意调换,相当于维度变换。(实例中为转置操作)

②索引'j'适用于规则一,两个元素相乘时其关于维度j的编号必须相同。如样本x中[3, 1, 4]的[3](关于维度j为编号为0),只能和样本y中[4, 3, 2]的[4]相乘(关于维度j的编号也为0)。(样本x第一列的数据元素与样本y第一行的数据元素,j编号相同,均为0)

③索引'j'为求和索引,中间计算结果需要求和。

2--参考链接

参考链接1

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Pytorch是机器学习中的一个重要框架,它与TensorFlow一起被认为是机器学习的两大框架。Pytorch学习可以从以下几个方面入手: 1. Pytorch基本语法:了解Pytorch的基本语法和操作,包括张量(Tensors)的创建、导入torch库、基本运算等\[2\]。 2. Pytorch中的autograd:了解autograd的概念和使用方法,它是Pytorch中用于自动计算梯度的工具,可以方便地进行反向传播\[2\]。 3. 使用Pytorch构建一个神经网络:学习使用torch.nn库构建神经网络的典型流程,包括定义网络结构、损失函数、反向传播和更新网络参数等\[2\]。 4. 使用Pytorch构建一个分类器:了解如何使用Pytorch构建一个分类器,包括任务和数据介绍、训练分类器的步骤以及在GPU上进行训练等\[2\]。 5. Pytorch的安装:可以通过pip命令安装Pytorch,具体命令为"pip install torch torchvision torchaudio",这样就可以在Python环境中使用Pytorch了\[3\]。 以上是一些关于Pytorch学习笔记,希望对你有帮助。如果你需要更详细的学习资料,可以参考引用\[1\]中提到的网上帖子,或者查阅Pytorch官方文档。 #### 引用[.reference_title] - *1* [pytorch自学笔记](https://blog.csdn.net/qq_41597915/article/details/123415393)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Pytorch学习笔记](https://blog.csdn.net/pizm123/article/details/126748381)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值