0825torch基础入门操作

目录

一、常用操作

1.1:torch库函数

1.2 torch类对象方法

1.3 torch类对象属性

1.4:tensor间的运算

1.5 类对象元素的获取(切片)

1.6:转为numpy对象

二、注意事项

1:关于ndarray对象切片

2、关于numpy和pytorch中,sum()方法的使用

3、矩阵乘法

4、深度学习中常用范数

5、切片问题

三、其他


一、常用操作


python中的“nadrray类”和“tensor类”都是线性代数中数组的体现。

常用库函数、类对象方法、类对象属性、类对象之间运算、类对象元素的获取(切片)

1.1:torch库函数

                     pytorch库                         numpy库
torch.tensor() 

np.array()
torch.ones()    np.ones()
torch.zeros()    np.zeros()
torch.arange()    np.arange()
torch.randn()    np.random.rand()
torch.exp()    np.exp()
注:都是一些常用的函数,可指定dtype,例如dtype=torch.float32,深度学习中常用float32类型数据

1.2 torch类对象方法

 假设x是一个tensor对象,常用方法有: x.reshape()    x.numel() (计算X中元素的个数)          len(x)输出第一个轴的维度       x.mean()     x.sum()    x.T

1.3 torch类对象属性

 x.shape()    

x.dim()

x.size()

1.4:tensor间的运算

加(+)、减(-)、乘(X)、除(÷)、是否相等(=;!=)、点积torch.dot(),  torch.mv(),  torch.mm()

 点乘

>>> a = torch.ones(3,4)
>>> a
tensor([[1., 1., 1., 1.],
        [1., 1., 1., 1.],
        [1., 1., 1., 1.]])
>>> b = torch.Tensor([1,2,3]).reshape((3,1))
>>> b
tensor([[1.],
        [2.],
        [3.]])
>>> torch.mul(a, b)
tensor([[1., 1., 1., 1.],
        [2., 2., 2., 2.],
        [3., 3., 3., 3.]])

矩阵乘

torch.mm和torch.matmul两个函数都是用来计算矩阵相乘。mm是处理二维矩阵,超过二维将报错;matmul是处理高维。

# 二维乘二维
>>> a = torch.ones(3,4)
>>> b = torch.ones(4,2)
>>> torch.mm(a, b)
tensor([[4., 4.],
        [4., 4.],
        [4., 4.]])
# 二维乘三维
>>> a = torch.ones(3,4)
>>> b = torch.ones(5,4,2)
>>> torch.matmul(a, b).shape
torch.Size([5, 3, 2])
# 三维乘三维
>>> a = torch.ones(5,4,2)
>>> b = torch.ones(5,2,3)
>>> torch.matmul(a, b).shape
torch.Size([5, 4, 3])

线性代数

函数功能
trace对角线元素之和(矩阵的迹)
diag对角线元素
triu/tril矩阵的上三角/下三角,可指定偏移量
mm/bmm矩阵乘法,batch的矩阵乘法
addmm/addmm/addmv/addr矩阵运算
t转置
dot/cross内积/外积
inverse求逆矩阵
svd奇异值分解

1.5 类对象元素的获取(切片)

切片(用方括号)x[  ]

1.6:转为numpy对象

x.numpy()

总结:深度学习存储和操作数据的主要接口是张量。它提供了各种功能,包括基本数学运算、广播、索引、切片、内存节省和转换其他Python对象。

二、注意事项


1:关于ndarray对象切片

import numpy as np
num = np.array([[1,2,3],[4,5,6],[7,8,9]])
print(num)
print(num[[0, 1], [0, 1]])
结果:

[[1 2 3]
 [4 5 6]
 [7 8 9]]
 
[1 5]
numpy中的切片方式有些奇怪,num[[0, 1], [0, 1]]表示第一行第一列以及第二行第二列两个元素所组成的数组。

2、关于numpy和pytorch中,sum()方法的使用

求和:x.sum(axis=0),含义:沿0轴汇总以生成输出向量。非汇总求和方法:可指定参数 keepdims=True

若沿k轴汇总,则丢失k轴的维数

A.cumsum()函数,汇总函数,此函数不会沿任何轴汇总输入张量。

num.sum(axis=0)
结果:

array([12, 15, 18])


3、矩阵乘法

[两个矩阵的按元素乘法称为 哈达玛积(Hadamard product)(数学符号 ⊙)]

torch.dot()

要点:python和matlab不同,python中 * 的意思是矩阵按元素进行乘法,而matlab中则表示矩阵乘法

torch.mv() 矩阵与向量相乘    torch.mm()  矩阵与矩阵相乘   

4、深度学习中常用范数

其中,在 L2 范数中常常省略下标 2,也就是说,∥x∥ 等同于 ∥x∥2,方法:torch.norm(x)

深度学习常用范数,如L2范 L1范数、数和弗罗贝尼乌斯范数。

5、切片问题

matlab:start:step:end

python:start:end:step

三、其他


1、pd.get_dummies(独热编码处理)

思想:将pandas中的数据通过torch.tensor(DataFrame.values())转化为张量

2、导数、梯度、自动求导

梯度和导数的关系?

梯度:函数f(x)相对于x的梯度是一个包含n个偏导数的向量。

导数又分为全导数和偏导数,只有正负,没有方向。

3、概率论基础知识

fair_probs = torch.ones([6]) / 6
counts = multinomial.Multinomial(1000, fair_probs).sample()#模拟掷1000次骰子
Bayes 定理 (Bayes’ theorem)。它如下所示。通过构造,我们有乘法规则, P(A,B)=P(B∣A)P(A)。根据对称性,这也适用于 P(A,B)=P(A∣B)P(B)。假设 P(B)>0, 求解其中一个条件变量,我们得到

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值