pytorch
文章平均质量分 62
mazinkaiser1991
这个作者很懒,什么都没留下…
展开
-
torch.device(‘cuda‘) 与 torch.device(‘cuda:0‘) 的区别简析
torch.device('cuda') 与 torch.device('cuda:0')在进行计算时,对于单卡计算机而言,没有任何区别,都是唯一的那一张GPU。示例如下:>>> a = torch.device('cuda')>>> b = torch.device('cuda:0')>>> tensor_a = torch.ones(1, device=a)>>> tensor_atensor([1.], devi原创 2021-05-11 07:36:00 · 47154 阅读 · 0 评论 -
pytorch 梯度计算相关内容总结
一、梯度计算准备工作调用backward()函数前,叶子/非叶子节点的grad属性均为none,无论是否设置了requires_grad=True(叶子节点),或者调用了retain_grad()(非叶子节点),非叶子节点不能设置requires_grad=True,否则会报错:“RuntimeError: you can only change requires_grad flags of leaf variables.”)。叶子/非叶子节点定义:1.叶子节点:所有requires_gra原创 2021-04-24 13:26:18 · 1726 阅读 · 0 评论