李沐04 数据操作和预处理——自学笔记

李沐数据操作04

# 数据操作实现

导入torch

import torch
x=torch.arange(12)
x   # 相当于print(x)
tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])

通过张量shape的属性来访问张量的形状和张量中元素的总数

x.shape
torch.Size([12])
x.numel()
12

改变一个张量的形状而不改变元素的数量和元素值,可用reshape

x=x.reshape(3,4)  # 3行4列的向量

使用全0、全1、其他常量或者是从特定分布中随机采样的数字

torch.zeros((2,3,4))  # 形状是2,3,4
tensor([[[0., 0., 0., 0.],
         [0., 0., 0., 0.],
         [0., 0., 0., 0.]],

        [[0., 0., 0., 0.],
         [0., 0., 0., 0.],
         [0., 0., 0., 0.]]])
torch.ones((2,3,4))  # 全1,形状234
tensor([[[1., 1., 1., 1.],
         [1., 1., 1., 1.],
         [1., 1., 1., 1.]],

        [[1., 1., 1., 1.],
         [1., 1., 1., 1.],
         [1., 1., 1., 1.]]])

通过提供包含数值的Python列表(或嵌套列表)来为所需张量中的每一个元素赋予确定值

torch.tensor([[2,1,4,3],[1,2,3,4],[4,3,2,1]])  # 二维数组(2个[]框)
tensor([[2, 1, 4, 3],
        [1, 2, 3, 4],
        [4, 3, 2, 1]])
torch.tensor([[[2,1,4,3],[1,2,3,4],[4,3,2,1]]])  # 三维数组(3个[]框)
tensor([[[2, 1, 4, 3],
         [1, 2, 3, 4],
         [4, 3, 2, 1]]])
torch.tensor([[[2,1,4,3],[1,2,3,4],[4,3,2,1]]]).shape  # 查看类型:torch.Size括号中有几个数字就是几维
# 第一层(最外层)里括号“()”面包含了1个中括号(没有逗号进行分割),这就是(1,3,4)中的1
# 第二层中括号里面包含了三个中括号(以逗号进行分割),这就是(1,3,4)中的3
# 第三层中括号里面包含了四个数(以逗号进行分割),这就是(1,3,4)中的4
torch.Size([1, 3, 4])
torch.tensor([[[2,1,4,3],
              [1,2,3,4],
              [4,3,2,1]],[[2,1,4,3],
                          [1,2,3,4],
                          [4,3,2,1]]]).shape # 查看类型:torch.Size括号中有几个数字就是几维
# 第一层(最外层)里括号“()”面包含了2个中括号(有逗号进行分割),这就是(2,3,4)中的1
# 第二层中括号里面包含了三个中括号(以逗号进行分割),这就是(2,3,4)中的3
# 第三层中括号里面包含了四个数(以逗号进行分割),这就是(2,3,4)中的4
torch.Size([2, 3, 4])

标准算术运算符(+, -, , / 和*)

x=torch.tensor([1.0,2,4,8])  # 创建浮点数组
y=torch.tensor([2, 2, 2,2])
x+y,x-y,x*y,x/y,x**y
(tensor([ 3.,  4.,  6., 10.]),
 tensor([-1.,  0.,  2.,  6.]),
 tensor([ 2.,  4.,  8., 16.]),
 tensor([0.5000, 1.0000, 2.0000, 4.0000]),
 tensor([ 1.,  4., 16., 64.]))

按元素运用的方式进行更多计算

torch.exp(x)
tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])

把多个张量连结在一起

x=torch.arange(12,dtype=torch.float32).reshape((3,4))  # x:生成0-11元素,长度为11的向量,浮点数32形式,构建3*4的向量
y=torch.tensor([[2.0,1,4,3],[1,2,3,4],[4,3,2,1]])      # y:3*4的向量
torch.cat((x,y),dim=0), torch.cat((x,y), dim=1)        # 第一个:torch.cat:x和y合并,dim=0是列;第二个:dim=1是行合并 
(tensor([[ 0.,  1.,  2.,  3.],
         [ 4.,  5.,  6.,  7.],
         [ 8.,  9., 10., 11.],
         [ 2.,  1.,  4.,  3.],
         [ 1.,  2.,  3.,  4.],
         [ 4.,  3.,  2.,  1.]]),
 tensor([[ 0.,  1.,  2.,  3.,  2.,  1.,  4.,  3.],
         [ 4.,  5.,  6.,  7.,  1.,  2.,  3.,  4.],
         [ 8.,  9., 10., 11.,  4.,  3.,  2.,  1.]]))

x=tensor([[ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.]])
y=tensor([[ 2., 1., 4., 3.],
[ 1., 2., 3., 4.],
[ 4., 3., 2., 1.]])
dim=0,列起合并:
tensor([ [ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.],
[ 2., 1., 4., 3.],
[ 1., 2., 3., 4.],
[ 4., 3., 2., 1.] ])
dim=1,行合并:
tensor([ [ 0., 1., 2., 3., 2., 1., 4., 3.],
[ 4., 5., 6., 7., 1., 2., 3., 4.],
[ 8., 9., 10., 11., 4., 3., 2., 1.] ])

通过逻辑运算符构建二维张量

x==y
tensor([[False,  True, False,  True],
        [False, False, False, False],
        [False, False, False, False]])
x.sum()  # 对张量中所有元素进行求和,产生一个只有“一个元素”的张量
tensor(66.)

broadcasting广播机制:适用于形状不同张量

a=torch.arange(3).reshape((3,1))
b=torch.arange(2).reshape((1,2))
a,b
(tensor([[0],
         [1],
         [2]]),
 tensor([[0, 1]]))
a+b  
# 两个张量的形状不同,但仍可以相加,广播机制(Auto):
# 把a的1列复制成和b一样的2列
# 把b的1行复制成a的3行
tensor([[0, 1],
        [1, 2],
        [2, 3]])

元素的访问

x=torch.arange(12,dtype=torch.float32).reshape((3,4))
#x=tensor([[ 0.,  1.,  2.,  3.],
#          [ 4.,  5.,  6.,  7.],
#          [ 8.,  9., 10., 11.]])
x[-1],x[1:3]  # x[-1]:访问最后一行;x[1:3]: 访问第一行和第二行
(tensor([ 8.,  9., 10., 11.]),
 tensor([[ 4.,  5.,  6.,  7.],
         [ 8.,  9., 10., 11.]]))

读取单个元素

x[1,2]  # x中第1行(从0起行),第2列(从0起列)是元素6
tensor(6.)

改元素值:指定索引

x[1,2]=9
x  # 从原来的6改为9
tensor([[ 0.,  1.,  2.,  3.],
        [ 4.,  5.,  9.,  7.],
        [ 8.,  9., 10., 11.]])

为多个元素赋相同的值

x[0:2,:]=12  # 给第0行和第1行,所有的列改为12
x
tensor([[12., 12., 12., 12.],
        [12., 12., 12., 12.],
        [ 8.,  9., 10., 11.]])
x=torch.arange(12,dtype=torch.float32).reshape((3,4)) 
x[0:1,:]=12 # 第0行
x
tensor([[12., 12., 12., 12.],
        [ 4.,  5.,  6.,  7.],
        [ 8.,  9., 10., 11.]])

运行一些操作可能会导致为新结果分配内存

before=id(y)
y=x+y
id(y)==before  # 原因是相当于产生了新y
False
z=torch.zeros_like(y)  # 产生一个和y一样结果的0元素张量
print('id(z): ',id(z))
z[:]=x+y               # z的元素=x+y,即对元素进行改写,地址不变
print('id(z): ',id(z))
id(z):  2139412520848
id(z):  2139412520848
before=id(x)        # 后续计算没有重复使用x,可以使用x+=y来减少内存开销
x+=y
id(x)==before
True

转换为numpy张量:最基础的多元运算的框架

A=x.numpy()        # numpy的多元数组
B=torch.tensor(A)  # torch的张量
type(A),type(B)
(numpy.ndarray, torch.Tensor)

将大小为1的张量转换为python标量

a=torch.tensor([3.5])   # 创建一个大小为1的张量a
a,a.item(), float(a),int(a)
# a.item():numpy的浮点数
# float(a): a的浮点数
# int(a): a的整数
(tensor([3.5000]), 3.5, 3.5, 3)

#数据预处理

该小节文件是:chapter_preliminaries/pandas.ipynb

创建一个人工数据集,并存储在csv文件

import os                                              # os模块用于文件操作
os.makedirs(os.path.join('..','data'),exist_ok=True)   # 用来创建多层目录(单层请用os.mkdir)
# os.makedirs(name, mode=0o777, exist_ok=False)
# name: 目录名;
# mode:要为目录设置的权限数字模式,默认的模式为 0o777 (八进制)
# exist_ok:是否在目录存在时触发异常。
#           若为False(默认值),则在目标目录已存在的情况下触发FileExistsError异常;
#           若为True,则在目标目录已存在的情况下不会触发FileExistsError异常。
data_file=os.path.join('..','data','house_tiny.csv')
# os.path.join()函数用于路径拼接文件路径,可以传入多个路径
# 人工创建了一个数据集并存放在`../data/house_tiny.csv`中
# 将 '..' 和 'data' 连接在一起,表示在当前目录的上一级目录下创建一个名为 'data' 的目录。
with open(data_file, 'w')as f:
    f.write('NumRooms,Alley,Price\n')                  # 每一列的名称
    f.write('NA,Pave,127500\n')                        # 每一行表示的数据样本
    f.write('2,NA,106000\n')
    f.write('4,NA,178100\n')
    f.write('NA,NA,140000\n')
    

从创建的csv文件中加载原始数据集

import pandas as pd

data=pd.read_csv(data_file)   # read_csc():读取csv文件的函数
print(data)
   NumRooms Alley   Price
0       NaN  Pave  127500
1       2.0   NaN  106000
2       4.0   NaN  178100
3       NaN   NaN  140000

处理缺失的数据:插值和删除

# 插值
inputs, outputs = data.iloc[:,0:2], data.iloc[:,2]  # iloc:index location
# data.iloc[:,0:2]:第0和第1列的所有行取出放在inputs
# data.iloc[:,2]: 将第2列取出放在outputs
inputs = inputs.fillna(inputs.mean())  # .fillna():表示填充NA值,mean():通过求inputs均值
print(inputs)
   NumRooms Alley
0       3.0  Pave
1       2.0   NaN
2       4.0   NaN
3       3.0   NaN

对于inputs中的类别值或者离散值,将“NaN”作为一个类别

inputs=pd.get_dummies(inputs, dummy_na=True)  # get_dummies(): N种状态中只有一个状态位值为1,其他状态位都是0
print(inputs)
   NumRooms  Alley_Pave  Alley_nan
0       3.0           1          0
1       2.0           0          1
2       4.0           0          1
3       3.0           0          1

现在inputs和outputs是数值类型,可以转化为张量

import torch

x,y=torch.tensor(inputs.values), torch.tensor(outputs.values)
x,y
(tensor([[3., 1., 0.],
         [2., 0., 1.],
         [4., 0., 1.],
         [3., 0., 1.]], dtype=torch.float64),
 tensor([127500, 106000, 178100, 140000]))
  • 12
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值