跟着李沐学AI(2.3线性代数)

本文详细介绍了标量、向量、张量的概念,探讨了张量的维度、运算规则(如矩阵加法、哈达玛积、标量乘法),以及降维和非降维求和的方法。重点讲解了点积、矩阵向量积和矩阵乘法,以及范数的使用。涵盖了深度学习中常用的技术,如L1/L2范数。适合理解张量在机器学习中的核心作用。
摘要由CSDN通过智能技术生成

1、标量:我们称仅包含一个数值的叫标量。标量由只有一个元素的张量表示。

2、向量:向量为标量值组成的列表,这些标量值称为向量的元素或分量。

3、张量:张量是向量的推广。

4、维度:向量的长度通常称为向量的维度。通过调用内置len(x)函数来访问张量的长度

5、张量算法:

两个形状相同的矩阵相加会在这两个矩阵上执行元素加法

两个矩阵的按元素乘法(哈达玛积) 

张量乘以或加上一个标量不会改变张量的形状,其中张量的每个元素都将与标量相加或相乘。

 6、降维:调用求和函数会沿所有的轴降低张量的维度,使它变为一个标量

axis就是轴的意思,用法如下:

           A.sum()  对A中的全部元素求和
           A.sum(axis=0) ------->列求和,上下压扁
           A.sum(axis=1) ------->行求和,左右压扁

            A.sum(axis=[0, 1]) # Same as `A.sum()`沿着行和列对矩阵求和,等价于对矩阵的所有元素进行求和。

            A.numel()求张量的元素个数

7、非降维求和:

当 keepidms=True,保持其二维或者三维的特性,(结果保持其原来维数)默认为 False,不保持其二维或者三维的特性.(结果不保持其原来维数);cumsum函数(计算各行的累加值)不会沿任何轴降低输入张量的维度。(下图为不同维度的张量)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值