彻底搞懂tensorflow里的张量(tensor)
1.引言
学习卷积神经网络(CNN)的时候,最重要的就是搞清楚网络各层的神经元输入输出的数据结构(即张量)。如果仅用线性代数所学的矩阵,向量来理解张量,一定会搞得一头雾水。因此很有必要搞清楚张量是什么东西。
- 首先明确:张量最主要的两个参数: rank(阶,或维数)、shape(形状)
2.什么是张量
下图是张量的直观的示意:张量是标量、向量、矩阵的集合和推广。
3.什么是rank
rank | 数学实例 | Python 例子 |
---|---|---|
0 | 纯数字(只有大小) | s=352 |
1 | 向量(1个基本向量) | v = [1.1, 2.2, 3.3] |
2 | 矩阵(两个基本向量) | m = [[1, 2, 3], [4, 5, 6], [7, 8, 9]] |
3 | 数据立体(3个基本向量) | t = [ [[2], [4], [6]] , [[8], [10], |