昇思25天学习打卡营第2天|探索张量:从创建到运算,包括属性、索引、与 NumPy 转换及稀疏张量

目录

张量的介绍

MindSpore 及其张量相关模块的导入配置

 创建张量

 介绍

根据数据直接生成

从NumPy数组生成

使用init初始化器构造张量

继承另一个张量的属性,形成新的张量

张量的属性

张量的索引

张量的运算

Tensor与NumPy转换

Tensor转换为NumPy

NumPy转换为Tensor

稀疏张量

CSRTensor

COOTensor


张量的介绍


        张量是一种特殊的数据结构,与数组和矩阵非常相似。张量(Tensor)作为 MindSpore 网络运算中的基本数据结构,具有极其重要的地位和作用。

        张量可以看作是多维数组的一种扩展形式,它不仅能够表示常见的二维矩阵,还能轻松处理更高维度的数据。在深度学习和机器学习领域,数据往往具有复杂的多维特征,而张量恰恰为这些复杂数据的表达和处理提供了有力的工具。

        MindSpore 中,张量的定义和操作具有高度的灵活性和可扩展性。它能够适应不同规模和类型的数据集,无论是图像数据、音频数据还是文本数据,都可以用张量进行有效的组织和运算。

        张量在网络运算中的优势明显。它可以高效地进行并行计算,充分利用硬件资源,加快运算速度。同时,张量的运算规则和数学性质经过精心设计,能够保证运算的准确性和稳定性。

        总之,张量作为 MindSpore 网络运算的基本数据结构,是实现高效、准确的机器学习和深度学习模型的关键要素,为解决各种复杂的实际问题提供了坚实的基础。

MindSpore 及其张量相关模块的导入配置


        导入了 Python 中的 NumPy 库,并将其简称为 np。NumPy 乃是用于数值计算的关键之库。同时,还导入了 mindspore 库,从 mindspore 库中引入了 ops 模块,其中或许涵盖了一系列的操作或函数。此外,又从 mindspore 库分别导入了 Tensor(张量)、CSRTensor(压缩稀疏行张量)以及 COOTensor(坐标格式张量)这几种数据结构。上述这些导入语句,为后续对这些库和模块中功能及数据结构的运用,做好了充分的准备。

        代码如下:

import numpy as np  
import mindspore  
from mindspore import ops  
from mindspore import Tensor, CSRTensor, COOTensor  

 创建张量


 介绍

        张量的创建方式呈现出多样化的特点,在进行张量的构造操作时,支持传入诸如 Tensor、float、int、bool、tuple、list 以及 numpy.ndarray 等多种类型的数据。

根据数据直接生成

         可以根据数据创建张量,数据类型可以设置或者通过框架自动推断。

        首先定义了一个名为 data 的列表,其内容为 [1, 0, 1, 0] 。然后使用 Tensor 函数将 data 列表转换为一个张量,并将其命名为 x_data 。最后,打印出 x_data 张量本身、它的形状(shape)以及数据类型(dtype)。

        代码如下:

data = [1, 0, 1, 0]  
x_data = Tensor(data)  
print(x_data, x_data.shape, x_data.dtype)  

        运行结果:

[1 0 1 0] (4,) Int64

从NumPy数组生成

        可以从NumPy数组创建张量。

        首先使用 np.array() 函数将 data 转换为一个 NumPy 数组,并将其命名为 np_array 。然后使用 Tensor 函数将这个 NumPy 数组 np_array 转换为一个张量,并将其命名为 x_np 。最后,打印出 x_np 张量、它的形状(shape)以及数据类型(dtype)。

        代码如下:

npnp_array = np.array(data)  
x_np = Tensor(np_array)  
print(x_np, x_np.shape, x_np.dtype)  

        运行结果:

[1 0 1 0] (4,) Int64

使用init初始化器构造张量

        当使用init初始化器对张量进行初始化时,支持传入的参数有init、shape、dtype。

        init: 支持传入initializer的子类。如:下方示例中的 One() 和 Normal()。

        shape: 支持传入 list、tuple、 int。

        dtype: 支持传入mindspore.dtype。

        首先从 mindspore.common.initializer 模块导入 One 和 Normal 。然后,初始化一个形状为 (2, 2) 、数据类型为 mindspore.float32 并用全 1 进行初始化的张量 tensor1 ,初始化方式通过 init=One() 指定。接着,初始化一个形状同样为 (2, 2) 、数据类型为 mindspore.float32 但从正态分布进行初始化的张量 tensor2 ,初始化方式通过 init=Normal() 指定。最后,打印出 tensor1 和 tensor2 。

        代码如下:

from mindspore.common.initializer import One, Normal  
# Initialize a tensor with ones  
tensor1 = mindspore.Tensor(shape=(2, 2), dtype=mindspore.float32, init=One())  
# Initialize a tensor from normal distribution  
tensor2 = mindspore.Tensor(shape=(2, 2), dtype=mindspore.float32, init=Normal())  
print("tensor1:\n", tensor1)  
print("tensor2:\n", tensor2)  

        运行结果:

tensor1:  

 [[1. 1.]  

 [1. 1.]]  

tensor2:  

 [[ 0.00819395 -0.01264733]  

 [ 0.01296161  0.00939255]] 

        备注:init主要用于并行模式下的延后初始化,在正常情况下不建议使用init对参数进行初始化。

继承另一个张量的属性,形成新的张量

        首先从 mindspore 导入 ops 模块。然后,使用 ops.ones_like(x_data) 函数创建一个与 x_data 形状相同但元素全为 1 的张量,并将其命名为 x_ones ,然后打印输出“Ones Tensor: ”以及 x_ones 的值。接着,使用 ops.zeros_like(x_data) 函数创建一个与 x_data 形状相同但元素全为 0 的张量,并将其命名为 x_zeros ,然后打印输出“Zeros Tensor: ”以及 x_zeros 的值。

        代码如下:

from mindspore import ops  
x_ones = ops.ones_like(x_data)  
print(f"Ones Tensor: \n {x_ones} \n")  
x_zeros = ops.zeros_like(x_data)  
print(f"Zeros Tensor: \n {x_zeros} \n")

        运行结果:

#先打印  
Ones Tensor:   
 [1 1 1 1]   
#延迟打印  
Zeros Tensor:   
 [0 0 0 0]  

张量的属性


        张量的属性包括形状、数据类型、转置张量、单个元素大小、占用字节数量、维数、元素个数和每一维步长。

        形状(shape):Tensor的shape,是一个tuple。

        数据类型(dtype):Tensor的dtype,是MindSpore的一个数据类型。

        单个元素大小(itemsize): Tensor中每一个元素占用字节数,是一个整数。

        占用字节数量(nbytes): Tensor占用的总字节数,是一个整数。

        维数(ndim): Tensor的秩,也就是len(tensor.shape),是一个整数。

        元素个数(size): Tensor中所有元素的个数,是一个整数。

        每一维步长(strides): Tensor每一维所需要的字节数,是一个tuple。

        首先创建一个张量 x ,其值来自一个 NumPy 数组 [[1, 2], [3, 4]] ,数据类型为 mindspore.int32 。然后,依次打印出以下关于张量 x 的属性信息

        代码如下:

x = Tensor(np.array([[1, 2], [3, 4]]), mindspore.int32)  
print("x_shape:", x.shape)  
print("x_dtype:", x.dtype)  
print("x_itemsize:", x.itemsize)  
print("x_nbytes:", x.nbytes)  
print("x_ndim:", x.ndim)  
print("x_size:", x.size)  
print("x_strides:", x.strides)  

        运行结果:

x_shape: (2, 2) #x_shape:张量的形状。  
x_dtype: Int32  #x_dtype:张量的数据类型。  
x_itemsize: 4  #x_itemsize:单个元素的字节大小。  
x_nbytes: 16  #x_nbytes:张量占用的总字节数。  
x_ndim: 2 #x_ndim:张量的维度数量。  
x_size: 4  #x_size:张量中元素的总数。  
x_strides: (8, 4)  #x_strides:在内存中遍历张量时每个维度的步长。

张量的索引


        Tensor索引与Numpy索引类似,索引从0开始编制,负索引表示按倒序编制,冒号:和 ...用于对数据进行切片。

        首先创建一个张量 tensor ,其值来自一个 NumPy 数组 [[0, 1], [2, 3]] ,并将数据类型转换为 np.float32 然后,进行以下打印操作:

        代码如下:

tensor = Tensor(np.array([[0, 1], [2, 3]]).astype(np.float32))  
print("First row: {}".format(tensor[0]))  
print("value of bottom right corner: {}".format(tensor[1, 1]))  
print("Last column: {}".format(tensor[:, -1]))  
print("First column: {}".format(tensor[..., 0]))  

        运行结果:

First row: [0. 1.]  
value of bottom right corner: 3.0  
Last column: [1. 3.]  
First column: [0. 2.]  

        分析:

        打印“First row: ”以及张量的第一行,通过 tensor[0] 获取。

        打印“value of bottom right corner: ”以及张量右下角的值,通过 tensor[1, 1] 获取。

        打印“Last column: ”以及张量的最后一列,通过 tensor[:, -1] 获取。

        打印“First column: ”以及张量的第一列,通过 tensor[..., 0] 获取。

张量的运算


        张量之间有很多运算,包括算术、线性代数、矩阵处理(转置、标引、切片)、采样等,张量运算和NumPy的使用方式类似,下面介绍其中几种操作。普通算术运算有:加(+)、减(-)、乘(*)、除(/)、取模(%)、整除(//)。

        首先创建两个张量 x 和 y ,x 的值为 [1, 2, 3] ,数据类型为 mindspore.float32 ;y 的值为 [4, 5, 6] ,数据类型也为 mindspore.float32 。然后分别进行加法(output_add = x + y )、减法(output_sub = x - y )、乘法(output_mul = x * y )、除法(output_div = y / x )、取模(output_mod = y % x )和整除(output_floordiv = y // x )运算,并将结果分别存储在 output_add 、output_sub 、output_mul 、output_div 、output_mod 和 output_floordiv 变量中。最后,打印出每种运算的结果。

        代码如下:

x = Tensor(np.array([1, 2, 3]), mindspore.float32)  
y = Tensor(np.array([4, 5, 6]), mindspore.float32)  
output_add = x + y  
output_sub = x - y  
output_mul = x * y  
output_div = y / x  
output_mod = y % x  
output_floordiv = y // x  
print("add:", output_add)  
print("sub:", output_sub)  
print("mul:", output_mul)  
print("div:", output_div)  
print("mod:", output_mod)  
print("floordiv:", output_floordiv)  

           运行结果:

add: [5. 7. 9.]  
sub: [-3. -3. -3.]  
mul: [ 4. 10. 18.]  
div: [4.  2.5 2. ]  
mod: [0. 1. 0.]  
floordiv: [4. 2. 2.]  

        分析:

        分别输出“add:”及加法运算的结果,“sub:”及减法运算的结果,“mul:”及乘法运算的结果,“div:”及除法运算的结果,“mod:”及取模运算的结果,“floordiv:”及整除运算的结果。

        concat将给定维度上的一系列张量连接起来。

        代码如下:

data1 = Tensor(np.array([[0, 1], [2, 3]]).astype(np.float32))  
data2 = Tensor(np.array([[4, 5], [6, 7]]).astype(np.float32))  
output = ops.concat((data1, data2), axis=0)  
print(output)  
print("shape:\n", output.shape)  

        运行结果:

[[0. 1.]  
 [2. 3.]  
 [4. 5.]  
 [6. 7.]]  
shape:  
 (4, 2)  

        分析:首先创建两个张量 data1 和 data2 ,data1 的值来自一个经过数据类型转换的 NumPy 数组 [[0, 1], [2, 3]] ,data2 的值来自另一个经过相同处理的 NumPy 数组 [[4, 5], [6, 7]] ,两个张量的数据类型均为 np.float32 。

        然后使用 ops.concat 函数沿指定的轴(这里是轴 0)将 data1 和 data2 进行拼接,结果存储在 output 变量中。

        最后打印出拼接后的结果 output ,并打印出“shape:”以及 output 的形状。

        stack则是从另一个维度上将两个张量合并起来。

        首先,创建了两个 NumPy 数组并将其转换为指定数据类型的 Tensor data1 和 data2 。然后,使用 ops.stack 函数将 data1 和 data2 沿着新的维度进行堆叠。输出堆叠后的结果。输出堆叠后的 Tensor 的形状信息。形状信息描述了 Tensor 的维度和每个维度的大小。

        代码如下:

data1 = Tensor(np.array([[0, 1], [2, 3]]).astype(np.float32))  
data2 = Tensor(np.array([[4, 5], [6, 7]]).astype(np.float32))  
output = ops.stack([data1, data2])  
print(output)  
print("shape:\n", output.shape) 

        运行结果:

[[[0. 1.]  
  [2. 3.]]  
  
 [[4. 5.]  
  [6. 7.]]]  
shape:  
 (2, 2, 2)  

Tensor与NumPy转换


Tensor转换为NumPy

        首先,创建了一个名为 t 的 Tensor ,其元素值均为 1.0 。然后,通过  输出了 t 的内容以及 t 的数据类型。接着,将 t 转换为 NumPy 数组,并将其赋值给 n 。最后输出了 n 的内容以及 n 的数据类型。

        代码如下:

t = Tensor([1., 1., 1., 1., 1.])  

print(f"t: {t}", type(t))  

n = t.asnumpy()  

print(f"n: {n}", type(n))  

        运行结果:

        t: [1. 1. 1. 1. 1.] <class 'mindspore.common.tensor.Tensor'>

        n: [1. 1. 1. 1. 1.] <class 'numpy.ndarray'>

NumPy转换为Tensor

        首先使用 NumPy 的 ones 函数创建一个包含 5 个值均为 1 的数组,并将其赋值给变量 n 。然后,通过 from_numpy 方法将 NumPy 数组 n 转换为 Tensor 类型,并将结果赋值给变量 t 。

        代码如下:   

n = np.ones(5)  

t = Tensor.from_numpy(n)  

        使用 NumPy 的 add 函数将数组 n 的每个元素都加上 1,并将结果存储在 n 中(通过 out=n 参数指定)。然后,分别打印出更新后的数组 n 的内容及其数据类型,以及之前由 n 转换得到的 Tensor t 的内容及其数据类型。

        代码如下:

np.add(n, 1, out=n)  

print(f"n: {n}", type(n))  

print(f"t: {t}", type(t))  

        运行结果:

        n: [2. 2. 2. 2. 2.] <class 'numpy.ndarray'>

        t: [2. 2. 2. 2. 2.] <class 'mindspore.common.tensor.Tensor'>

稀疏张量


        稀疏张量(Sparse Tensor)是一种特殊的数据结构,用于高效地表示和处理包含大量零值或稀疏数据的张量。

        在许多实际应用中,数据往往具有稀疏性。例如,在推荐系统中,用户对大多数商品可能没有评分;在图像识别中,某些区域可能没有显著特征。如果使用常规的稠密张量来表示这些数据,会浪费大量的存储空间和计算资源,因为需要存储和处理大量的零值。

        稀疏张量通过只存储非零元素的值及其对应的索引位置,来有效地减少存储空间和计算量。常见的稀疏张量存储格式有坐标格式(Coordinate Format,COO)、压缩稀疏行格式(Compressed Sparse Row,CSR)和压缩稀疏列格式(Compressed Sparse Column,CSC)等。

        在深度学习和数值计算中,处理稀疏张量需要专门的算法和优化技巧,以充分利用其稀疏性特点,提高计算效率和模型性能。

        总之,稀疏张量为处理稀疏数据提供了一种高效、经济的方式,在许多领域都具有重要的应用价值。

CSRTensor

         CSRTensor(Compressed Sparse Row Tensor)即压缩稀疏行张量,它是一种用于高效存储和处理稀疏数据的张量格式。

        在这种格式中,通常使用三个数组来表示稀疏张量:indptr(行指针)、indices(列索引)和 values(非零元素的值)。indptr 数组表示每一行非零元素在 values 中的起始位置和终止位置(或者说偏移量),通过它可以快速确定某一行中的非零元素在 values 中的范围;indices 数组表示非零元素在列中的位置;values 数组则存储了非零元素的值。此外,还需要指定稀疏张量的形状 shape。

        相比其他稀疏张量格式,CSR 具有一些优势。它在按行访问和处理稀疏数据时具有较高的效率,因为可以通过 indptr 快速定位到某一行的非零元素。这种格式常用于需要频繁进行行操作的算法和计算中,例如矩阵运算等。

        在实际应用中,CSRTensor 常用于图神经网络、推荐系统、科学计算等领域中处理稀疏数据的场景。

        代码如下:

indptr = Tensor([0, 1, 2])  

indices = Tensor([0, 1])  

values = Tensor([1, 2], dtype=mindspore.float32)  

shape = (2, 4)  

# Make a CSRTensor  

csr_tensor = CSRTensor(indptr, indices, values, shape)  

print(csr_tensor.astype(mindspore.float64).dtype)  

        分析:这段代码首先定义了几个张量 indptr、indices、values 和表示形状的 shape 。然后,使用这些定义创建了一个 CSRTensor(压缩稀疏行张量)对象 csr_tensor 。最后,将 csr_tensor 的数据类型转换为 mindspore.float64 ,并打印出转换后的张量的数据类型。

        运行结果:

        Float64

COOTensor

         COO(Coordinate Format)稀疏张量格式用来表示某一张量在给定索引上非零元素的集合,若非零元素的个数为N,被压缩的张量的维数为ndims。各参数含义如下:

        indices: 二维整数张量,每行代表非零元素下标。形状:[N, ndims], 索引数据类型支持int16、int32、int64。

        values: 一维张量,表示相对应的非零元素的值。形状:[N]。

        shape: 表示被压缩的稀疏张量的形状,目前仅支持二维COOTensor。

        代码如下:

indices = Tensor([[0, 1], [1, 2]], dtype=mindspore.int32)  

values = Tensor([1, 2], dtype=mindspore.float32)  

shape = (3, 4)  

# Make a COOTensor  

coo_tensor = COOTensor(indices, values, shape)  

print(coo_tensor.values)  

print(coo_tensor.indices)  

print(coo_tensor.shape)  

print(coo_tensor.astype(mindspore.float64).dtype)  # COOTensor to float64  

        运行结果:

[1. 2.]  

[[0 1]  

 [1 2]]  

(3, 4)  

Float64  

最终运行结果:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

前端基地

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值