pytorch
pytorch
我有明珠一颗
一条通往业界大神的成功之路
展开
-
torch.solve已弃用,如何改为torch.linalg.solve?
1、torch.solve 函数的期望输入有2个:右侧向量、系数矩阵;而 torch.linalg.solve 函数的期望输入也有2个:系数矩阵、右侧向量(顺序与torch.solve的输入相反)。2、torch.solve和torch.linalg.solve在返回值上也有所不同。torch.solve函数返回一个元组(solution, LU),其中solution是解向量,LU是矩阵A的 LU 分解。LU 分解是一种将矩阵分解为下三角矩阵L和上三角矩阵U的方法。原创 2024-01-06 14:37:31 · 1713 阅读 · 0 评论 -
在PyTorch中设置随机数生成器的种子值
在PyTorch中设置随机数生成器的种子值的方法CPU:可以使用torch.manual_seed()函数GPU:需要额外设置torch.cuda.manual_seed()来设置GPU上的随机数生成器种子值。原创 2023-12-26 15:01:38 · 778 阅读 · 0 评论 -
知识蒸馏(Pytorch入门)
【代码】蒸馏学习(Pytorch入门)原创 2023-11-15 11:00:00 · 544 阅读 · 0 评论 -
F.interpolate 在训练过程中无可学习参数
在PyTorch中,F.interpolate函数本身并没有可学习参数。它是一个用于调整输入张量尺寸的函数,通常用于图像的上采样或下采样操作。原创 2023-09-18 15:30:40 · 443 阅读 · 0 评论 -
Pytorch nn.Softmax(dim=?) 详解
有了这个d0,d1,d2,d3...的维度说明之后,我们可以去理解任意一个tensor的Softmax运算,万变不离其宗。原创 2023-05-12 12:09:45 · 2714 阅读 · 0 评论 -
torch.nn.ConstantPad1d 填充矩阵
torch.nn.ConstantPad1d 函数功能:通过填充指定值来扩展tensor的最后一个维度,输入可以为任意维度的tensor。原创 2023-04-26 16:11:27 · 712 阅读 · 0 评论 -
RuntimeError: shape ‘[225, -1]‘ is invalid for input of size 400000
RuntimeError: shape '[225, -1]' is invalid for input of size 400000原创 2023-03-10 01:17:56 · 4478 阅读 · 0 评论 -
动手学深度学习之如何理解param.grad / batch_size(详细讲解)
动手学深度学习之如何理解param.grad / batch_size(详细讲解)从上图计算过程可以看出,params.grad 其实是batch中所有样本的grad总和,所以这个时候除以batch_size就是相当于取一个平均值,这样就算下一次传入的batch_size改变了,最后也不会影响得到的平均数。原创 2023-02-09 19:44:50 · 2309 阅读 · 15 评论 -
梯度累加是什么意思-详解
第一次调用backward反向传播,结果是(2 4 6),中间没有梯度清零,第二次调用backward反向传播,又有了一波结果(2 4 6),加在之前的结果上就得了(4 8 12)原创 2023-02-08 22:32:14 · 413 阅读 · 0 评论 -
torch.distributions.multinomial.Multinomial——小白亦懂
torch.distributions.multinomial.Multinomial(total_count=1,probs=None,logits=None,validate_args=None)看书看到这个函数不是很懂,搜索发现连 torch API 都没有很细致地讲,我最后的理解如下:比方说以下面为例,这里有几个前提:1、probs.sum() 为12、probs有几个元素,我们就只能往几个位置掷骰子,这是限定的大前提原创 2023-02-08 16:19:59 · 762 阅读 · 1 评论