深度学习基础5(降维运算,矩阵计算,不同种类的范数)

本文详细介绍了深度学习中的降维运算,包括沿特定轴求和以降低维度,以及非降维求和。此外,还讲解了点积、矩阵-向量积和矩阵-矩阵乘法的概念。同时,探讨了不同类型的范数及其在优化问题中的应用,对于理解张量操作和线性代数在深度学习中的作用至关重要。
摘要由CSDN通过智能技术生成

降维

写在前面:轴1的长度就是列的维数(有几列)

我们可以对任意张量进行的一个有用的操作是计算其元素的和

在数学表示法中,我们使用∑符号表示求和。 为了表示长度为𝑑的向量中元素的总和,可以记为请添加图片描述

在代码中,可以调用计算求和的函数:

x = torch.arange(4, dtype=torch.float32)
x, x.sum()

(tensor([0., 1., 2., 3.]), tensor(6.))

我们可以表示任意形状张量的元素和

A.shape, A.sum()

(torch.Size([5, 4]), tensor(190.))

默认情况下,调用求和函数会沿所有的轴降低张量的维度,使它变为一个标量。

我们还可以指定张量沿哪一个轴来通过求和降低维度

以矩阵为例,为了通过求和所有行的元素来降维(轴0),我们可以在调用函数时指定axis=0。 由于输入矩阵沿0轴降维以生成输出向量,因此输入轴0的维数在输出形状中消失。

A为

(tensor([[ 0., 1., 2., 3.],

​ [ 4., 5., 6., 7.],

​ [ 8., 9., 10., 11.],

​ [12., 13., 14., 15.],

​ [16., 17., 18., 19.]]),

A_sum_axis0 = A.sum(axis=0)
A_sum_axis0, A_sum_axis0.shape

(tensor([40., 45., 50., 55.]), torch.Size([4]))

指定axis=1将通过汇总所有列的元素降维(轴1)。因此,输入轴1的维数在输出形状中消失。

A_sum_axis1 = A.sum(axis=1)
A_sum_axis1, A_sum_axis1.shape

(tensor([ 6., 22., 38., 54., 70.]), torch.Size([5]))

沿着行和列对矩阵求和,等价于对矩阵的所有元素进行求和。

A.sum(axis
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

NDNPOMDFLR

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值