Pytorch学习记录(一)Tensor及其性质

本文是PyTorch学习的第一部分,主要介绍张量(Tensor)的基础知识,包括创建、属性查看、基本运算如索引、切片、拼接、乘积以及与NumPy的交互。同时,讨论了在GPU上使用张量的可能性。
摘要由CSDN通过智能技术生成

什么是Pytorch

这是一个基于Python的科学计算软件包,面向两组受众:

  • 替代NumPy以使用GPU的功能
  • 深度学习研究平台,可提供最大的灵活性和速度1

 

1. 张量(Tensors)

张量如同数组和矩阵一样, 是一种特殊的数据结构。张量的英文是Tensor,它是PyTorch里面基础的运算单位,在PyTorch中, 神经网络的输入、输出以及网络的参数等数据, 都是使用张量来进行描述。

张量与NumPy的ndarrays类似,此外,张量也可以在GPU上使用以加速计算。

在同构的意义下,第零阶张量 (r = 0) 为标量 (Scalar),第一阶张量 (r = 1) 为向量 (Vector), 第二阶张量 (r = 2) 则称为矩阵 (Matrix),第三阶以上的统称为多维张量1

我们可以使用下标来引用向量的任一元素。2例如,我们可以通过 x i x_i xi来引用第 i i i个元素。注意,元素 x i x_i xi是一个标量,所以我们在引用它时不必加粗。一般认为列向量是向量的默认方向,故在数学中,向量 x \mathbf{x} x可以写为:

x = [ x 1 x 2 ⋮ x n ] , \mathbf{x} =\begin{bmatrix}x_{1} \\x_{2} \\ \vdots \\x_{n}\end{bmatrix}, x=x1x2xn,

矩阵,我们通常用粗体、大写字母来表示(例如, X \mathbf{X} X Y \mathbf{Y} Y Z \mathbf{Z} Z),在代码中表示为具有两个轴的张量。在数学表示法中,我们使用

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Swordade

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值