张量(tensor)的基本概念

如参考文献标题所述,这是一篇适用于物理学和工程领域学生关于张量相关知识的介绍性文章。本文主要介绍张量的定义及其相关操作。张量的物理意义可以参见参考文献。

1、向量
1.1向量的定义:
张量(tensor)的基本概念
其中,i,j,k为互相垂直的单位向量。
1.2向量加法:
张量(tensor)的基本概念
向量相加得向量。
1.3向量内积(inner product):
张量(tensor)的基本概念
向量内积得标量。
1.4向量叉乘(cross product):
张量(tensor)的基本概念
向量叉乘得向量(垂直于u,v所在平面的向量,服从右手法则)

2、张量
为了表述方便,假设一下讨论都在3维欧式空间中进行
标量:秩为零的张量(只有大小,没有方向,由1(3^0)部分组成);
向量:秩为一的张量(有大小和一个方向,由3(3^1)部分组成);
Dyad:秩为2的张量(有大小和两个方向,由9(3^2)部分组成);
Triad:秩为3的张量(有大小和三个方向,由27(3^3)部分组成);
……
这样,张量和标量、向量……之间似乎有一一对应关系。但是,标量不是张量,虽然秩为0的张量是标量;同样的,向量不是张量,虽然秩为1的张量是向量;dyad不是张量,但秩为2的张量是dyad(矩阵)。
个人见解:张量之所以命名为张量,是因为一个秩为n的张量包含了张向三个方向的量。

获得一个Dyad的方法是两个向量相乘,但这里的乘法不同于内积,也不同于叉乘,被称之为“张量积(tensor product)”。如果U和V分别是3维的向量,则它们的张量积为:
张量(tensor)的基本概念
这个张量积以3x3的矩阵形式出现:
u_11,u_12,u_13
u_21,u_22,u_23
u_31,u_32,u_33.
但是需要注意:UV≠VU.
Dyad的运算法则:
2.1 与常数乘法
矩阵M的乘法为:αM=[αu_{ij}]=[u_{ij}α]=Mα
类似的: 张量(tensor)的基本概念
2.2与向量的内积:
矩阵M与行向量V的前乘: 张量(tensor)的基本概念
矩阵M与列向量V的后乘: 张量(tensor)的基本概念
通常, 张量(tensor)的基本概念
类似的Dyad与向量S的前乘与后乘分别为:S·(UV)和(UV) ·S
当前乘时, 张量(tensor)的基本概念,其中 张量(tensor)的基本概念最终结果是一个方向由V决定的向量;
当后乘时, 张量(tensor)的基本概念。最终结果是一个方向由U决定的向量。
通常, 张量(tensor)的基本概念

与生成Dyad的方法类似,秩为3的张量由三个向量的张量积生成UVW,而秩为n的张量由n个向量的张量积生成。在一个3维的空间中,秩为n的张量由3^n个元素构成。综上所述有一下结论:

通过张量间的张量积运算可以产生新的张量;
两个张量的张量积生成的新的张量的秩等于这两个张量秩的累加和;
一个张量和一个标量(秩为0的张量)的乘积是满足交换律的;
两个张量的内积是不满足交换律的;
两个张量的内积生成的张量的秩是这两个张量的秩的累加和减去2。

参考文献
An Introduction to Tensors for Students of Physics and Engineering
  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
在PyTorch中,torch.Tensor是一个多维数组的数据类型。它可以表示不同维度的张量。维度是一个抽象的概念,可以用来描述张量的形状和大小。每个维度都对应着张量的一个轴,可以通过索引来访问张量中的元素。 例如,一个二维张量可以表示为一个矩阵,其中第一个维度表示行,第二个维度表示列。一个三维张量可以表示为一个立方体,其中第一个维度表示深度,第二个维度表示行,第三个维度表示列。更高维度的张量可以类似地解释。 torch.Tensor.expand()函数可以用来改变张量的形状,可以通过指定新的维度来扩展原有的维度。这个函数的官方文档可以在中找到。 torch.Tensor.expand_as()函数则是用来将一个张量扩展为与另一个张量具有相同形状的函数。这个函数的官方文档可以在中找到。 所以,torch.tensor张量的维度是指张量的形状和大小,可以通过expand()和expand_as()函数来改变或扩展。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [图像解析 torch.Tensor 的维度概念 && 用 torch.randn 举例](https://blog.csdn.net/qq_54185421/article/details/124896084)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [【Pytorch】torch.Tensor.expand_as()与torch.Tensor.expand()使用与比较](https://blog.csdn.net/meiqi0538/article/details/124394608)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT0_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值