张量(tensor)的基本概念

如参考文献标题所述,这是一篇适用于物理学和工程领域学生关于张量相关知识的介绍性文章。本文主要介绍张量的定义及其相关操作。张量的物理意义可以参见参考文献。

1、向量
1.1向量的定义:
张量(tensor)的基本概念
其中,i,j,k为互相垂直的单位向量。
1.2向量加法:
张量(tensor)的基本概念
向量相加得向量。
1.3向量内积(inner product):
张量(tensor)的基本概念
向量内积得标量。
1.4向量叉乘(cross product):
张量(tensor)的基本概念
向量叉乘得向量(垂直于u,v所在平面的向量,服从右手法则)

2、张量
为了表述方便,假设一下讨论都在3维欧式空间中进行
标量:秩为零的张量(只有大小,没有方向,由1(3^0)部分组成);
向量:秩为一的张量(有大小和一个方向,由3(3^1)部分组成);
Dyad:秩为2的张量(有大小和两个方向,由9(3^2)部分组成);
Triad:秩为3的张量(有大小和三个方向,由27(3^3)部分组成);
……
这样,张量和标量、向量……之间似乎有一一对应关系。但是,标量不是张量,虽然秩为0的张量是标量;同样的,向量不是张量,虽然秩为1的张量是向量;dyad不是张量,但秩为2的张量是dyad(矩阵)。
个人见解:张量之所以命名为张量,是因为一个秩为n的张量包含了张向三个方向的量。

获得一个Dyad的方法是两个向量相乘,但这里的乘法不同于内积,也不同于叉乘,被称之为“张量积(tensor product)”。如果U和V分别是3维的向量,则它们的张量积为:
张量(tensor)的基本概念
这个张量积以3x3的矩阵形式出现:
u_11,u_12,u_13
u_21,u_22,u_23
u_31,u_32,u_33.
但是需要注意:UV≠VU.
Dyad的运算法则:
2.1 与常数乘法
矩阵M的乘法为:αM=[αu_{ij}]=[u_{ij}α]=Mα
类似的: 张量(tensor)的基本概念
2.2与向量的内积:
矩阵M与行向量V的前乘: 张量(tensor)的基本概念
矩阵M与列向量V的后乘: 张量(tensor)的基本概念
通常, 张量(tensor)的基本概念
类似的Dyad与向量S的前乘与后乘分别为:S·(UV)和(UV) ·S
当前乘时, 张量(tensor)的基本概念,其中 张量(tensor)的基本概念最终结果是一个方向由V决定的向量;
当后乘时, 张量(tensor)的基本概念。最终结果是一个方向由U决定的向量。
通常, 张量(tensor)的基本概念

与生成Dyad的方法类似,秩为3的张量由三个向量的张量积生成UVW,而秩为n的张量由n个向量的张量积生成。在一个3维的空间中,秩为n的张量由3^n个元素构成。综上所述有一下结论:

通过张量间的张量积运算可以产生新的张量;
两个张量的张量积生成的新的张量的秩等于这两个张量秩的累加和;
一个张量和一个标量(秩为0的张量)的乘积是满足交换律的;
两个张量的内积是不满足交换律的;
两个张量的内积生成的张量的秩是这两个张量的秩的累加和减去2。

参考文献
An Introduction to Tensors for Students of Physics and Engineering
  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
TensorFlow是一个开源的机器学习框架,由Google开发并维护。它被广泛用于构建和训练各种机器学习模型,包括神经网络。TensorFlow的基本概念包括: 1. 张量Tensor):TensorFlow中的基本数据单位是张量,可以看作是多维数组。张量可以是标量(0维张量)、向量(1维张量)、矩阵(2维张量)或更高维的数组。张量TensorFlow中用于表示输入数据、模型参数和计算结果。 2. 计算图(Computation Graph):TensorFlow使用计算图来描述模型的计算过程。计算图是由一系列节点(Node)和边(Edge)组成的有向无环图。节点表示操作(如加法、乘法、激活函数等),边表示数据流动的方向。 3. 变量(Variable):在TensorFlow中,变量用于存储模型的参数,并且在训练过程中可以更新。变量在计算图中是持久存在的,并且可以跨多个计算图共享。 4. 会话(Session):TensorFlow使用会话来执行计算图中的操作。会话负责分配计算资源、管理变量和执行操作。 5. 损失函数(Loss Function):损失函数用于衡量模型在训练过程中的预测结果与真实标签之间的差异。通过最小化损失函数,可以使模型逐步优化,提高预测的准确性。 6. 优化器(Optimizer):优化器用于更新模型的参数,使损失函数的值最小化。常见的优化器包括梯度下降(Gradient Descent)、Adam、Adagrad等。 这些是TensorFlow的基本概念,了解它们可以帮助理解和使用TensorFlow进行机器学习模型的开发和训练。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值