torch
文章平均质量分 60
Pytorch-torch
底层研究生
Phd渡劫中……(1/4)
展开
-
PyTorch基础(15)-- torch.flatten()方法
前言最近在复现论文中一个块的时候需要使用到torch.flatten()这个方法,这个方法其实很简单,但其中有一些细节可能需要注意,且有个关键点很容易忘记,故在此记录以备查阅。方法解析flatten的中文含义为“扁平化”,具体怎么理解呢?我们可以尝试这么理解,假设你的数据为1维数据,那么这个数据天然就已经扁平化了,如果是2维数据,那么扁平化就是将2维数据变为1维数据,如果是3维数据,那么就要根据你自己所选择的“扁平化程度”来进行操作,假设需要全部扁平化,那么就直接将3维数据变为1维数据,如果只需要部分原创 2021-11-22 23:16:59 · 19954 阅读 · 0 评论 -
PyTorch基础(11)----- torch.sum()方法
方法1详解torch.sum(input, *, dtype=None) → Tensorinput:输入的张量案例x = torch.randn(1, 3)print(x)y = torch.sum(x)print(y)方法2详解torch.sum(input, dim, keepdim=False, *, dtype=None) → Tensorinput:输入的张量dim:求和的维度,如果dim=1,则按行求和;如果dim=0,则按列求和keepdim:默认为Fa原创 2021-04-15 11:25:43 · 4072 阅读 · 0 评论 -
PyTorch基础(18)-- torch.stack()方法
torch.stack方法用于沿着一个新的维度 join(也可称为cat)一系列的张量(可以是2个张量或者是更多),它会插入一个新的维度,并让张量按照这个新的维度进行张量的cat操作。只通过理论对方法进行解释说明是不够直观的,下面会通过大量的示例对torch.stack方法进行解析!dim:按照dim的方式对这些张量进行stack操作,也就是你要按照哪种堆叠方式对张量进行堆叠。首先,看一下stack的直观解释,动词可以简单理解为:把……tensors:张量序列,也就是要进行stack操作的对象。原创 2023-10-24 15:29:20 · 3907 阅读 · 5 评论 -
PyTorch基础(五)----- torch.cat()方法
cat是concatnate的缩写,concatnate的含义拼接,深度学习模型中最为常见的是通道拼接。一、普通用法dim = 1:表示将张量A、B按照维数1进行拼接,换句话说,就是按照列进行拼接torch.cat((A,B),dim = 1)案例1x = torch.randn(3, 4)y = torch.randn(3, 2)print(x, x.size())print(y, y.size())z = torch.cat((x, y), dim = )print(z,原创 2021-03-26 19:39:44 · 2016 阅读 · 0 评论 -
PyTorch基础(22)-- torch.chunk()方法
今天要分享的方法是torch.chunk方法,这个方法也是第一次遇到,为避免自己遗忘,特在此记录!原创 2024-05-24 10:06:50 · 517 阅读 · 0 评论 -
PyTorch基础(六)----- torch.eq()方法
一、torch.eq()方法详解对两个张量Tensor进行逐元素的比较,若相同位置的两个元素相同,则返回True;若不同,返回False。torch.eq(input, other, *, out=None)Parameters(参数):input :必须是一个Tensor,该张量用于比较other :可以是一个张量Tensor,也可以是一个值valuereturn(返回值):返回一个Boolean类型的张量,对两个张量Tensor进行逐元素的比较,若相同位置的两个元素相同,则返回Tr原创 2021-03-26 20:20:49 · 30176 阅读 · 6 评论 -
PyTorch基础(19)-- torch.take_along_dim()方法
在深挖ML4CO的代码过程中,遇到了torch.take_along_dim()这个方法,影响到我后续的代码阅读;加之在上网搜索资料的过程中,网络上对此函数的介绍文章少之又少,即使有,也是对torch官网文档中的解释进行英译汉或对函数的轻描淡写,看完解析后,对该函数的认识并没有因此而深刻。故在此谈一下自己的理解。温馨提示:由于torch.take_along_dim函数与torch.gather函数的功能大同小异,因此在阅读这篇文章前,建议先阅读torch.gather()函数的解析。原创 2024-02-28 18:14:28 · 440 阅读 · 0 评论 -
PyTorch基础(十)----- torch.max()方法
一、前言这个方法跟上一篇文章的torch.max()方法非常类似,只不过一个是求最大值,一个是求平均值。在某些情况下,甚至可以代替下采样中的最大池化和平均池化,所以说,这两个方法的用处还是蛮大的。torch.max() <->torch.nn.MaxPool2d()torch.mean() <->torch.nn.MeanPool2d()二、方法详解torch.max(input, dim, keepdim=False, *, out=None) -> (Tenso原创 2021-04-04 15:23:58 · 728 阅读 · 0 评论 -
PyTorch基础(九)----- torch.mean()方法
一、方法详解含义:顾名思义,返回一个Tensor的均值torch.mean(input, dim, keepdim=False)input:输入的张量dim:求均值的维度,若dim = 0,则沿行求均值;若dim=1,则沿列求均值keepdim:输出张量是否跟输入张量的另一个维度相同这个用言语很难说明白,我们直接通过案例来理解掌握!二、案例案例1import torchx = torch.randn(4, 4)print(x.size())y = torch原创 2021-04-02 11:15:09 · 4759 阅读 · 4 评论 -
Pytorch基础(21)-- torch.repeat_interleave()方法
嗯……,又是奇奇怪怪的方法,果然,你能想到的功能,大佬们已经实现了。今天要分享的内容是方法。话不多说,Let’s go!原创 2024-03-12 23:45:42 · 612 阅读 · 0 评论 -
PyTorch基础(16)-- torch.gather()方法
在实现DQN的过程中,torch.gather()这个方法引起了我的注意,原因有二:1)这个函数在我硕士期间很少遇见,用到的次数更是少之又少;2)torch.gather()这个方法是如何使用的呢,以为它的逻辑是怎样的?带着这个疑问,我查阅了PyTorch的官方文档,并在此进行记录,以备不时之需!同时,也希望能够帮助到更多的同学!原创 2023-08-15 17:29:15 · 278 阅读 · 0 评论 -
PyTorch基础(八)----- torch.split()方法
一、方法详解含义:将一个张量分为几个chunkstorch.split(tensor, split_size_or_sections, dim=0)tensor:要分的张量split_size_or_sections:如果该项参数的值为一个int类型的value值,那么该方法会将tensor划分为同等数量的张量;如果tensor的size沿着给定的不能整除split_size,那么最后一个chunk相较于其它chunk小;如果是一个list列表,该方法会将tensor划分为len(s原创 2021-04-01 16:18:45 · 9620 阅读 · 3 评论 -
PyTorch基础(20)-- torch.gt() / torch.ge() / torch.le() / torch.lt()方法
嗯……最近遇到的奇奇怪怪的方法很多了,学无止境啊!学不完啊,根本学不完!torch.gt()、torch.ge()、torch.le()和torch.lt()方法,由于这四个方法很相似,所以放到一块解析了!函数作用inputotherinput≥otherinput≤otherinputother。原创 2024-03-08 09:55:05 · 953 阅读 · 0 评论 -
PyTorch基础(14)-- torch.roll()方法
一、前言二、torch.roll()方法解析三、案例分析原创 2021-11-16 17:16:20 · 7681 阅读 · 12 评论