einsum的基础使用

einsum全称为Einstein summation convention,是一种求和的范式,在很多基于多维张量的张量运算库,如numpy,tensorflow,pytorch中都有所应用。einsum可以用一种很简单的,统一的方式去表示很多多维张量的运算。让我们以numpy中的einsum为例子,理解这种运算表达方式。

这里贴出numpy中的einsum的API:

numpy.einsum(subscripts, *operands, out=None, dtype=None, order='K', casting='safe', optimize=False)

其中关键的参数有subscripts用于指定计算模式,operands用于指定操作数,我们给个例子,如果现在我们有两个矩阵

A = np.array([[1,2,3],[1,3,4],[2,3,4]])
B = np.array([[9,2,4],[1,1,7],[5,2,4]])
'''
A -> array([[1, 2, 3],
           [1, 3, 4],
           [2, 3, 4]])
B -> array([[9, 2, 4],
           [1, 1, 7],
           [5, 2, 4]])
'''

如果我们现在想实现一个运算,如下公式所述:
s ( j ) = ∑ i = 0 2 A [ i , j ] ∗ B [ i , j ] s(j) = \sum_{i=0}^{2} A[i,j]*B[i,j] s(j)=i=02A[i,j]B[i,j]
我们利用einsum这种形式就能够很好的表达,如:

s = np.einsum('ij,ij->j',A,B)

其输出结果为

array([20, 13, 56])

其中的subscripts参数就很好地描述了上述公式描述的运算过程,我们这里可以细究下这个参数。这个参数由三大部分构成,a,b->c其中ab是描述的输入张量的索引,如上面的ij表示A和B张量的ij列。c表示的是输出的索引,如上文中的j。当你指定了输出的索引之后,就可以把这个索引看成是固定的值了,因为他将会是作为一个自变量参数存在的,而可以把其他的索引变量(输入的索引变量)看成是循环变量。这个方式可以实现很多复杂的矩阵运算,如

a = np.arange(60.).reshape(3,4,5)
b = np.arange(24.).reshape(4,3,2)
np.einsum('ijk,jil->kl', a, b)

Reference

[1]. EINSUM IS ALL YOU NEED - EINSTEIN SUMMATION IN DEEP LEARNING

PyTorch中的`torch.einsum`函数是一个用于执行张量运算的强大工具。它可以根据指定的公式对输入张量进行操作,并生成输出张量。 引用\[1\]中提供了一些常见的用法示例。例如,可以使用`torch.einsum`计算矩阵的行和、列和以及某个维度的和。例如,可以使用`torch.einsum('ij->i', A)`计算矩阵A的行和,使用`torch.einsum('ij->j', A)`计算矩阵A的列和,使用`torch.einsum('ijklmn->n', D)`计算张量D在某个维度上的和。 引用\[2\]中提供了一些更复杂的用法示例。例如,可以使用`torch.einsum('ij,jk->ik', A, B)`计算矩阵A和B的内积,使用`torch.einsum('ij,ik->jk', A, C)`计算矩阵A和C的外积,使用`torch.einsum('ij,jk,lj->jk', A, B, C)`进行多维张量相乘。 引用\[3\]中提供了一个高阶张量运算的示例。在这个示例中,使用`np.einsum('ijk,jil->kl', a, b)`计算了两个3阶张量a和b的乘积,并生成了一个2阶张量o。这个示例中的公式解析为对i和j进行求和,然后将结果存储在输出张量的k和l位置上。 总之,`torch.einsum`是一个非常灵活和强大的函数,可以用于执行各种张量运算。它可以根据指定的公式对输入张量进行操作,并生成输出张量。 #### 引用[.reference_title] - *1* *2* [【Pytorch写代码技巧--EinsumEinsum详解+常用写法](https://blog.csdn.net/ccaoshangfei/article/details/126995397)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [Pytorch中, torch.einsum详解。](https://blog.csdn.net/a2806005024/article/details/96462827)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FesianXu

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值