PyTorch - 04 - 张量解释:深度学习的数据结构
What Is A Tensor?
神经网络中的输入,输出和转换都使用张量表示,结果,神经网络编程大量使用了张量。
张量是神经网络使用的主要数据结构。
张量的概念是其他更具体概念的数学概括。让我们看一下张量的一些特定实例。
Specific Instances Of Tensors
这些示例都是张量的更一般概念的特定实例:
- 数
- 标量
- 数组
- 向量
- 二维阵列
- 矩阵
让我们将上述示例张量列表分为两类:
- 数字,数组,二维数组
- 标量,矢量,矩阵
第一组三个术语(数字,数组,二维数组)是计算机科学中通常使用的术语,而第二组(标量,向量,矩阵)是数学中通常使用的术语。
我们经常看到这种情况,不同的研究领域针对相同的概念使用不同的词。在深度学习中,我们通常仅将所有这些称为张量。
让我们进一步研究这些术语。 当我们从左到右移动时,每个组中的术语彼此对应。 为了显示这种对应关系,我们可以重塑术语列表以得到三组,每组两个术语:
- 数字,标量
- 数组,向量
- 2D阵列,矩阵
Indexes Required To Access An Element
这些对中每对的关系是,两个元素都需要相同数量的索引来引用数据结构中的特定元素。
Indexes required | Computer science | Mathematics |
---|---|---|
0 | 数字 | 标量 |
1 | 个数组 | 向量 |
2 | 2D 阵列 | 矩阵 |
例如,假设我们有以下数组: