pytorch
文章平均质量分 61
pytorch
Irelyn
这个作者很懒,什么都没留下…
展开
-
4.3 关于torch.flatten的笔记
先看函数参数:torch.flatten(input, start_dim=0, end_dim=-1)input: 一个 tensor,即要被“推平”的 tensor。start_dim: “推平”的起始维度。end_dim: “推平”的结束维度。首先如果按照 start_dim 和 end_dim 的默认值,那么这个函数会把 input 推平成一个 shape 为 [????]的tensor,其中 ???? 即 input 中元素个数。如果我们要自己设定起始维度和结束维度呢?我们要先来看原创 2021-08-03 13:48:48 · 398 阅读 · 0 评论 -
pytorch 中矩阵乘法总结
导语:这是一篇关于Pytorch中各类乘法操作的总结和使用说明。torch.dot():Computes the dot product (inner product) of two tensors.计算两个1-D 张量的点乘(内乘)。torch.dot(torch.tensor([2, 3]), torch.tensor([2, 1]))out: tensor(7)torch.mm() , 其中 , , 输出 的维度是。该函数只用来计算两个2-D矩阵的矩阵乘法。mat1 = torch.randn(2,转载 2021-06-15 01:27:36 · 2343 阅读 · 0 评论 -
关于pytorch中@和*的用处
原创 2021-06-15 01:23:50 · 447 阅读 · 0 评论 -
pytorch中backward()函数详解
最近由于实际需要在学习pytorch,作为深度学习中最为重要的反向传播计算,pytorch用非常简单的backward( )函数就实现了,但是在实现过程中对于其参数存在一些疑问,下面就从pytorch中反向传播求导的计算方式,backward( )函数参数来进行说明。这里首先还是放出backward( )函数的pytorch文档,因为整个说明主要还是围绕这个函数来进行的。 问题描述 从上面的文档可以看到backward函数有一个奇怪的参数:grad_tensors,在实现pytorch的官方教程中可转载 2021-06-14 13:48:40 · 5528 阅读 · 2 评论