MindSpore快速入门——张量Tensor【昇思25天打卡营】

本笔记为昇思25天打卡营第二天,张量 Tensor 的学习。

本笔记主要为 baseline 代码添加了详细注释,方便理解,在结尾处为我的心得体会。
文章首发自我的个人博客 www.jiewong.com

环境信息:
规格:96G Ascend910

镜像:py39-ms2.2.14-cann7.0.0

特性:预装mindspore(2.2.14)、numpy、pandas、download


张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在  n n n 维空间内,有  n r n^{r} nr 个分量的一种量,其中每个分量都是坐标的函数,而在坐标变换时,这些分量也依照某些规则作线性变换。 r r r 称为该张量的秩或阶(与矩阵的秩和阶均无关系)。

张量是一种特殊的数据结构,与数组和矩阵非常相似。张量(Tensor)是MindSpore网络运算中的基本数据结构

依赖导入

import numpy as np
import mindspore
from mindspore import ops
from mindspore import Tensor, CSRTensor, COOTensor

创建张量

张量的创建方式有多种,构造张量时,支持传入Tensorfloatintbooltuplelistnumpy.ndarray类型。

  • 根据数据直接生成

    可以根据数据创建张量,数据类型可以设置或者通过框架自动推断。

# 创建一个数据列表
data = [1, 0, 1, 0]
# 将数据列表转换为Tensor对象
x_data = Tensor(data)
# 打印Tensor对象,其形状和数据类型
print(x_data, x_data.shape, x_data.dtype)

输出

[1 0 1 0] (4,) Int64
  • 从NumPy数组生成

    可以从NumPy数组创建张量。

# 将数据列表转换为numpy数组
np_array = np.array(data)
# 将numpy数组转换为Tensor对象
x_np = Tensor(np_array)
# 打印Tensor对象,其形状和数据类型
print(x_np, x_np.shape, x_np.dtype)

输出

[1 0 1 0] (4,) Int64
  • 使用init初始化器构造张量

    当使用init初始化器对张量进行初始化时,支持传入的参数有initshapedtype

# 从mindspore.common.initializer模块导入One, Normal类,用于张量初始化
from mindspore.common.initializer import One, Normal

# 使用One()初始化器创建一个形状为(2, 2)的张量,数据类型为float32,所有元素为1
tensor1 = mindspore.Tensor(shape=(2, 2), dtype=mindspore.float32, init=One())
# 使用Normal()初始化器创建一个形状为(2, 2)的张量,数据类型为float32,元素从正态分布中抽取
tensor2 = mindspore.Tensor(shape=(2, 2), dtype=mindspore.float32, init=Normal())

# 打印两个张量的值
print("tensor1:\n", tensor1)
print("tensor2:\n", tensor2)

输出

tensor1:
 [[1. 1.]
 [1. 1.]]
tensor2:
 [[-0.00115205  0.01023239]
 [ 0.00665021  0.00286971]]

init主要用于并行模式下的延后初始化,在正常情况下不建议使用init对参数进行初始化。

  • 继承另一个张量的属性,形成新的张量
# 导入ops模块
from mindspore import ops

# 使用ops.ones_like函数创建一个与x_data形状相同,所有元素为1的张量
x_ones = ops.ones_like(x_data)
# 打印创建的张量
print(f"Ones Tensor: \n {x_ones} \n")

# 使用ops.zeros_like函数创建一个与x_data形状相同,所有元素为0的张量
x_zeros = ops.zeros_like(x_data)
# 打印创建的张量
print(f"Zeros Tensor: \n {x_zeros} \n")

输出

Ones Tensor: 
 [1 1 1 1] 

Zeros Tensor: 
 [0 0 0 0] 

张量的属性

张量的属性包括形状、数据类型、转置张量、单个元素大小、占用字节数量、维数、元素个数和每一维步长。

  • 形状(shape):Tensor的shape,是一个tuple。

  • 数据类型(dtype):Tensor的dtype,是MindSpore的一个数据类型。

  • 单个元素大小(itemsize): Tensor中每一个元素占用字节数,是一个整数。

  • 占用字节数量(nbytes): Tensor占用的总字节数,是一个整数。

  • 维数(ndim): Tensor的秩,也就是len(tensor.shape),是一个整数。

  • 元素个数(size): Tensor中所有元素的个数,是一个整数。

  • 每一维步长(strides): Tensor每一维所需要的字节数,是一个tuple。

# 创建一个2x2的整数类型张量
x = Tensor(np.array([[1, 2], [3, 4]]), mindspore.int32)

# 打印张量的各种属性:形状、数据类型、每个元素的大小、总字节数、维度数、元素总数、步长
print("x_shape:", x.shape)
print("x_dtype:", x.dtype)
print("x_itemsize:", x.itemsize)
print("x_nbytes:", x.nbytes)
print("x_ndim:", x.ndim)
print("x_size:", x.size)
print("x_strides:", x.strides)

输出

x_shape: (2, 2)
x_dtype: Int32
x_itemsize: 4
x_nbytes: 16
x_ndim: 2
x_size: 4
x_strides: (8, 4)

张量索引

Tensor索引与Numpy索引类似,索引从0开始编制,负索引表示按倒序编制,冒号:...用于对数据进行切片。

# 创建一个2x2的浮点数类型张量
tensor = Tensor(np.array([[0, 1], [2, 3]]).astype(np.float32))

# 打印张量的第一行、右下角的值、最后一列、第一列
print("First row: {}".format(tensor[0]))
print("value of bottom right corner: {}".format(tensor[1, 1]))
print("Last column: {}".format(tensor[:, -1]))
print("First column: {}".format(tensor[..., 0]))

输出

First row: [0. 1.]
value of bottom right corner: 3.0
Last column: [1. 3.]
First column: [0. 2.]

张量运算

张量之间有很多运算,包括算术、线性代数、矩阵处理(转置、标引、切片)、采样等,张量运算和NumPy的使用方式类似,下面介绍其中几种操作。

普通算术运算有:加(+)、减(-)、乘(*)、除(/)、取模(%)、整除(//)。

# 创建两个一维浮点数类型张量x和y
x = Tensor(np.array([1, 2, 3]), mindspore.float32)
y = Tensor(np.array([4, 5, 6]), mindspore.float32)

# 执行并打印x和y的加、减、乘、除、取模、整除操作的结果
output_add = x + y
output_sub = x - y
output_mul = x * y
output_div = y / x
output_mod = y % x
output_floordiv = y // x

print("add:", output_add)
print("sub:", output_sub)
print("mul:", output_mul)
print("div:", output_div)
print("mod:", output_mod)
print("floordiv:", output_floordiv)

输出

add: [5. 7. 9.]
sub: [-3. -3. -3.]
mul: [ 4. 10. 18.]
div: [4.  2.5 2. ]
mod: [0. 1. 0.]
floordiv: [4. 2. 2.]

concat将给定维度上的一系列张量连接起来。

# 创建两个2x2的浮点数类型张量data1和data2
data1 = Tensor(np.array([[0, 1], [2, 3]]).astype(np.float32))
data2 = Tensor(np.array([[4, 5], [6, 7]]).astype(np.float32))
# 使用ops.concat函数沿着第0轴(行)连接data1和data2
output = ops.concat((data1, data2), axis=0)
# 打印连接后的张量及其形状
print(output)
print("shape:\n", output.shape)

输出

[[0. 1.]
 [2. 3.]
 [4. 5.]
 [6. 7.]]
shape:
 (4, 2)

stack则是从另一个维度上将两个张量合并起来。

# 使用ops.stack函数堆叠data1和data2
output = ops.stack([data1, data2])

# 打印堆叠后的张量及其形状
print(output)
print("shape:\n", output.shape)

输出

[[[0. 1.]
  [2. 3.]]

 [[4. 5.]
  [6. 7.]]]
shape:
 (2, 2, 2)

Tensor与NumPy转换

Tensor可以和NumPy进行互相转换。

Tensor转换为NumPy

与张量创建相同,使用 Tensor.asnumpy() 将Tensor变量转换为NumPy变量。

# 创建一个全为1的一维浮点数张量t
t = Tensor([1., 1., 1., 1., 1.])
# 打印张量t及其类型
print(f"t: {t}", type(t))
# 将张量t转换为numpy数组n
n = t.asnumpy()
# 打印数组n及其类型
print(f"n: {n}", type(n))

输出

t: [1. 1. 1. 1. 1.] <class 'mindspore.common.tensor.Tensor'>
n: [1. 1. 1. 1. 1.] <class 'numpy.ndarray'>

NumPy转换为Tensor

使用Tensor()将NumPy变量转换为Tensor变量。

# 创建一个全为1的numpy数组n
n = np.ones(5)
# 将numpy数组n转换为张量t
t = Tensor.from_numpy(n)

# 使用numpy的add函数将n中的每个元素加1,并将结果保存回n
np.add(n, 1, out=n)
# 打印数组n及其类型和张量t及其类型
print(f"n: {n}", type(n))
print(f"t: {t}", type(t))

输出

n: [2. 2. 2. 2. 2.] <class 'numpy.ndarray'>
t: [2. 2. 2. 2. 2.] <class 'mindspore.common.tensor.Tensor'>

稀疏张量

稀疏张量是一种特殊张量,其中绝大部分元素的值为零。

在某些应用场景中(比如推荐系统、分子动力学、图神经网络等),数据的特征是稀疏的,若使用普通张量表征这些数据会引入大量不必要的计算、存储和通讯开销。这时就可以使用稀疏张量来表征这些数据。

MindSpore现在已经支持最常用的CSRCOO两种稀疏数据格式。

常用稀疏张量的表达形式是<indices:Tensor, values:Tensor, shape:Tensor>。其中,indices表示非零下标元素, values表示非零元素的值,shape表示的是被压缩的稀疏张量的形状。在这个结构下,我们定义了三种稀疏张量结构:CSRTensorCOOTensorRowTensor

CSRTensor

CSR(Compressed Sparse Row)稀疏张量格式有着高效的存储与计算的优势。其中,非零元素的值存储在values中,非零元素的位置存储在indptr(行)和indices(列)中。各参数含义如下:

  • indptr: 一维整数张量, 表示稀疏数据每一行的非零元素在values中的起始位置和终止位置, 索引数据类型支持int16、int32、int64。

  • indices: 一维整数张量,表示稀疏张量非零元素在列中的位置, 与values长度相等,索引数据类型支持int16、int32、int64。

  • values: 一维张量,表示CSRTensor相对应的非零元素的值,与indices长度相等。

  • shape: 表示被压缩的稀疏张量的形状,数据类型为Tuple,目前仅支持二维CSRTensor

CSRTensor的详细文档,请参考mindspore.CSRTensor

CSRTensor的使用示例:

# 创建CSRTensor所需的indptr、indices、values张量和形状shape
indptr = Tensor([0, 1, 2])
indices = Tensor([0, 1])
values = Tensor([1, 2], dtype=mindspore.float32)
shape = (2, 4)

# 创建一个CSRTensor
csr_tensor = CSRTensor(indptr, indices, values, shape)

# 打印转换为float64类型的csr_tensor的数据类型
print(csr_tensor.astype(mindspore.float64).dtype)

上述代码会生成如下所示的CSRTensor:

[ 1 0 0 0 0 2 0 0 ] \left[ \begin{matrix} 1 & 0 & 0 & 0 \\ 0 & 2 & 0 & 0 \end{matrix} \right] [10020000]

COOTensor

COO(Coordinate Format)稀疏张量格式用来表示某一张量在给定索引上非零元素的集合,若非零元素的个数为N,被压缩的张量的维数为ndims。各参数含义如下:

  • indices: 二维整数张量,每行代表非零元素下标。形状:[N, ndims], 索引数据类型支持int16、int32、int64。

  • values: 一维张量,表示相对应的非零元素的值。形状:[N]

  • shape: 表示被压缩的稀疏张量的形状,目前仅支持二维COOTensor

COOTensor的详细文档,请参考mindspore.COOTensor

COOTensor的使用示例:

# 创建COOTensor所需的indices、values张量和形状shape
indices = Tensor([[0, 1], [1, 2]], dtype=mindspore.int32)
values = Tensor([1, 2], dtype=mindspore.float32)
shape = (3, 4)

# 创建一个COOTensor
coo_tensor = COOTensor(indices, values, shape)

# 打印coo_tensor的values、indices、shape和转换为float64类型后的数据类型
print(coo_tensor.values)
print(coo_tensor.indices)
print(coo_tensor.shape)
print(coo_tensor.astype(mindspore.float64).dtype)  # COOTensor转换为float64类型
# 训练营打卡
print("打卡人:汪朝杰")

from datetime import datetime
import pytz
# 设置时区为北京时区
beijing_tz = pytz.timezone('Asia/shanghai')
# 获取当前时间,并转为北京时间
current_beijing_time = datetime.now(beijing_tz)
# 格式化时间输出
formatted_time = current_beijing_time.strftime('%Y-%m-%d %H:%M:%S')
print("当前北京时间:",formatted_time)

输出

[1. 2.]
[[0 1]
 [1 2]]
(3, 4)
Float64
打卡人:汪朝杰
当前北京时间: 2024-06-20 23:56:22

[ 0 1 0 0 0 0 2 0 0 0 0 0 ] \left[ \begin{matrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 0 \end{matrix} \right] 000100020000

在这里插入图片描述

心得体会

通过这次打卡,我学习了张量 Tensor,跟着 baseline 代码跑了一遍,张量这个名字很吓唬人,如果把他当做向量来理解,就可以当做线性代数的 Python 代码可视化。
参考这篇文章 张量和向量
我的理解是,如果你要对一部电影进行评分,比如《九龙城寨之围城》,我们俩一块去看,我觉得电影很好,你也觉得电影很好,满分 100 分,我评 90,你评88,那我们就可以用 ([90,88]) 这个向量来表示。
假如我俩是好朋友,我们看完《九龙城寨之围城》后,准备出门,结果下雨了🌧️,我俩就又买票继续看了另外一部,由于原定计划去吃饭被打断了,心情不好,我们给下一部电影评分分别为 70 和 68

[
  [90,88], 
  [70,68],  
]

这就是一个二维张量。

理解了张量的概念对于这节其余代码就好理解了,都是一些数学运算的代码化。

加油💪⛽️

花径不曾缘客扫,蓬门今始为君开。
你好,我的名字是汪朝杰,欢迎来到我的网站和数字花园🌱

  • 27
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值