李沐数据操作04
# 数据操作实现
导入torch
import torch
x=torch.arange(12)
x # 相当于print(x)
tensor([ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11])
通过张量shape的属性来访问张量的形状和张量中元素的总数
x.shape
torch.Size([12])
x.numel()
12
改变一个张量的形状而不改变元素的数量和元素值,可用reshape
x=x.reshape(3,4) # 3行4列的向量
使用全0、全1、其他常量或者是从特定分布中随机采样的数字
torch.zeros((2,3,4)) # 形状是2,3,4
tensor([[[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]],
[[0., 0., 0., 0.],
[0., 0., 0., 0.],
[0., 0., 0., 0.]]])
torch.ones((2,3,4)) # 全1,形状234
tensor([[[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]],
[[1., 1., 1., 1.],
[1., 1., 1., 1.],
[1., 1., 1., 1.]]])
通过提供包含数值的Python列表(或嵌套列表)来为所需张量中的每一个元素赋予确定值
torch.tensor([[2,1,4,3],[1,2,3,4],[4,3,2,1]]) # 二维数组(2个[]框)
tensor([[2, 1, 4, 3],
[1, 2, 3, 4],
[4, 3, 2, 1]])
torch.tensor([[[2,1,4,3],[1,2,3,4],[4,3,2,1]]]) # 三维数组(3个[]框)
tensor([[[2, 1, 4, 3],
[1, 2, 3, 4],
[4, 3, 2, 1]]])
torch.tensor([[[2,1,4,3],[1,2,3,4],[4,3,2,1]]]).shape # 查看类型:torch.Size括号中有几个数字就是几维
# 第一层(最外层)里括号“()”面包含了1个中括号(没有逗号进行分割),这就是(1,3,4)中的1
# 第二层中括号里面包含了三个中括号(以逗号进行分割),这就是(1,3,4)中的3
# 第三层中括号里面包含了四个数(以逗号进行分割),这就是(1,3,4)中的4
torch.Size([1, 3, 4])
torch.tensor([[[2,1,4,3],
[1,2,3,4],
[4,3,2,1]],[[2,1,4,3],
[1,2,3,4],
[4,3,2,1]]]).shape # 查看类型:torch.Size括号中有几个数字就是几维
# 第一层(最外层)里括号“()”面包含了2个中括号(有逗号进行分割),这就是(2,3,4)中的1
# 第二层中括号里面包含了三个中括号(以逗号进行分割),这就是(2,3,4)中的3
# 第三层中括号里面包含了四个数(以逗号进行分割),这就是(2,3,4)中的4
torch.Size([2, 3, 4])
标准算术运算符(+, -, , / 和*)
x=torch.tensor([1.0,2,4,8]) # 创建浮点数组
y=torch.tensor([2, 2, 2,2])
x+y,x-y,x*y,x/y,x**y
(tensor([ 3., 4., 6., 10.]),
tensor([-1., 0., 2., 6.]),
tensor([ 2., 4., 8., 16.]),
tensor([0.5000, 1.0000, 2.0000, 4.0000]),
tensor([ 1., 4., 16., 64.]))
按元素运用的方式进行更多计算
torch.exp(x)
tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])
把多个张量连结在一起
x=torch.arange(12,dtype=torch.float32).reshape((3,4)) # x:生成0-11元素,长度为11的向量,浮点数32形式,构建3*4的向量
y=torch.tensor([[2.0,1,4,3],[1,2,3,4],[4,3,2,1]]) # y:3*4的向量
torch.cat((x,y),dim=0), torch.cat((x,y), dim=1) # 第一个:torch.cat:x和y合并,dim=0是列;第二个:dim=1是行合并
(tensor([[ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.],
[ 2., 1., 4., 3.],
[ 1., 2., 3., 4.],
[ 4., 3., 2., 1.]]),
tensor([[ 0., 1., 2., 3., 2., 1., 4., 3.],
[ 4., 5., 6., 7., 1., 2., 3., 4.],
[ 8., 9., 10., 11., 4., 3., 2., 1.]]))
x=tensor([[ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.]])
y=tensor([[ 2., 1., 4., 3.],
[ 1., 2., 3., 4.],
[ 4., 3., 2., 1.]])
dim=0,列起合并:
tensor([ [ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.],
[ 2., 1., 4., 3.],
[ 1., 2., 3., 4.],
[ 4., 3., 2., 1.] ])
dim=1,行合并:
tensor([ [ 0., 1., 2., 3., 2., 1., 4., 3.],
[ 4., 5., 6., 7., 1., 2., 3., 4.],
[ 8., 9., 10., 11., 4., 3., 2., 1.] ])
通过逻辑运算符构建二维张量
x==y
tensor([[False, True, False, True],
[False, False, False, False],
[False, False, False, False]])
x.sum() # 对张量中所有元素进行求和,产生一个只有“一个元素”的张量
tensor(66.)
broadcasting广播机制:适用于形状不同张量
a=torch.arange(3).reshape((3,1))
b=torch.arange(2).reshape((1,2))
a,b
(tensor([[0],
[1],
[2]]),
tensor([[0, 1]]))
a+b
# 两个张量的形状不同,但仍可以相加,广播机制(Auto):
# 把a的1列复制成和b一样的2列
# 把b的1行复制成a的3行
tensor([[0, 1],
[1, 2],
[2, 3]])
元素的访问
x=torch.arange(12,dtype=torch.float32).reshape((3,4))
#x=tensor([[ 0., 1., 2., 3.],
# [ 4., 5., 6., 7.],
# [ 8., 9., 10., 11.]])
x[-1],x[1:3] # x[-1]:访问最后一行;x[1:3]: 访问第一行和第二行
(tensor([ 8., 9., 10., 11.]),
tensor([[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.]]))
读取单个元素
x[1,2] # x中第1行(从0起行),第2列(从0起列)是元素6
tensor(6.)
改元素值:指定索引
x[1,2]=9
x # 从原来的6改为9
tensor([[ 0., 1., 2., 3.],
[ 4., 5., 9., 7.],
[ 8., 9., 10., 11.]])
为多个元素赋相同的值
x[0:2,:]=12 # 给第0行和第1行,所有的列改为12
x
tensor([[12., 12., 12., 12.],
[12., 12., 12., 12.],
[ 8., 9., 10., 11.]])
x=torch.arange(12,dtype=torch.float32).reshape((3,4))
x[0:1,:]=12 # 第0行
x
tensor([[12., 12., 12., 12.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.]])
运行一些操作可能会导致为新结果分配内存
before=id(y)
y=x+y
id(y)==before # 原因是相当于产生了新y
False
z=torch.zeros_like(y) # 产生一个和y一样结果的0元素张量
print('id(z): ',id(z))
z[:]=x+y # z的元素=x+y,即对元素进行改写,地址不变
print('id(z): ',id(z))
id(z): 2139412520848
id(z): 2139412520848
before=id(x) # 后续计算没有重复使用x,可以使用x+=y来减少内存开销
x+=y
id(x)==before
True
转换为numpy张量:最基础的多元运算的框架
A=x.numpy() # numpy的多元数组
B=torch.tensor(A) # torch的张量
type(A),type(B)
(numpy.ndarray, torch.Tensor)
将大小为1的张量转换为python标量
a=torch.tensor([3.5]) # 创建一个大小为1的张量a
a,a.item(), float(a),int(a)
# a.item():numpy的浮点数
# float(a): a的浮点数
# int(a): a的整数
(tensor([3.5000]), 3.5, 3.5, 3)
#数据预处理
该小节文件是:chapter_preliminaries/pandas.ipynb
创建一个人工数据集,并存储在csv文件
import os # os模块用于文件操作
os.makedirs(os.path.join('..','data'),exist_ok=True) # 用来创建多层目录(单层请用os.mkdir)
# os.makedirs(name, mode=0o777, exist_ok=False)
# name: 目录名;
# mode:要为目录设置的权限数字模式,默认的模式为 0o777 (八进制)
# exist_ok:是否在目录存在时触发异常。
# 若为False(默认值),则在目标目录已存在的情况下触发FileExistsError异常;
# 若为True,则在目标目录已存在的情况下不会触发FileExistsError异常。
data_file=os.path.join('..','data','house_tiny.csv')
# os.path.join()函数用于路径拼接文件路径,可以传入多个路径
# 人工创建了一个数据集并存放在`../data/house_tiny.csv`中
# 将 '..' 和 'data' 连接在一起,表示在当前目录的上一级目录下创建一个名为 'data' 的目录。
with open(data_file, 'w')as f:
f.write('NumRooms,Alley,Price\n') # 每一列的名称
f.write('NA,Pave,127500\n') # 每一行表示的数据样本
f.write('2,NA,106000\n')
f.write('4,NA,178100\n')
f.write('NA,NA,140000\n')
从创建的csv文件中加载原始数据集
import pandas as pd
data=pd.read_csv(data_file) # read_csc():读取csv文件的函数
print(data)
NumRooms Alley Price
0 NaN Pave 127500
1 2.0 NaN 106000
2 4.0 NaN 178100
3 NaN NaN 140000
处理缺失的数据:插值和删除
# 插值
inputs, outputs = data.iloc[:,0:2], data.iloc[:,2] # iloc:index location
# data.iloc[:,0:2]:第0和第1列的所有行取出放在inputs
# data.iloc[:,2]: 将第2列取出放在outputs
inputs = inputs.fillna(inputs.mean()) # .fillna():表示填充NA值,mean():通过求inputs均值
print(inputs)
NumRooms Alley
0 3.0 Pave
1 2.0 NaN
2 4.0 NaN
3 3.0 NaN
对于inputs中的类别值或者离散值,将“NaN”作为一个类别
inputs=pd.get_dummies(inputs, dummy_na=True) # get_dummies(): N种状态中只有一个状态位值为1,其他状态位都是0
print(inputs)
NumRooms Alley_Pave Alley_nan
0 3.0 1 0
1 2.0 0 1
2 4.0 0 1
3 3.0 0 1
现在inputs和outputs是数值类型,可以转化为张量
import torch
x,y=torch.tensor(inputs.values), torch.tensor(outputs.values)
x,y
(tensor([[3., 1., 0.],
[2., 0., 1.],
[4., 0., 1.],
[3., 0., 1.]], dtype=torch.float64),
tensor([127500, 106000, 178100, 140000]))