PyTorch
HuanCaoO
这个作者很懒,什么都没留下…
展开
-
PyTorch API:index_select 报错 RuntimeError: “index_select_out_cuda_impl“ not implemented for ‘Float‘
解决torch.index_select报错RuntimeError: "index_select_out_cuda_impl" not implemented for 'Float'原创 2023-02-22 09:58:16 · 1643 阅读 · 3 评论 -
使用PyTorch为Tensor指定上下左右padding的行/列数目
先import相关库import torchimport torch.nn as nnimport torch.nn.functional as F第一种情况:当想要对Tensor上下和左右padding的数量不一样时例如,想要对Tensor左右padding各一列,而上下padding各两行,有以下三种方式。将padding数量作为创建padding后所要执行的函数(如卷积)对象的输入参数:conv = nn.Conv2d(in_channels=3, out_channels=3,原创 2020-12-23 11:07:28 · 6139 阅读 · 5 评论 -
PyTorch numpy转tensor出错 ValueError: some of the strides of a given numpy array are negative.
报错代码示例import cv2img = cv2.imread('./1.png')img = img[:, ::-1, :]import torchtorch.LongTensor(img)报错信息Traceback (most recent call last): File "xx/test.py", line 9, in <module> torch.LongTensor(img)ValueError: some of the strides of a原创 2020-09-07 10:18:31 · 485 阅读 · 0 评论 -
Pytorch geometric 打乱数据集的另一种方法,如 TUDataset 等等(非原Pytorch)
Pytorch 打乱数据集的另一种方法perm = torch.randperm(len(dataset))dataset = dataset[perm]原创 2020-03-25 11:42:41 · 1828 阅读 · 2 评论 -
PyTorch grad.data 查看参数梯度
结论使用 parameter.grad,data 查看参数的梯度。示例>>> import torch>>> import torch.nn as nn>>> inp = torch.randn(1, 1, 4, 4)>>> conv = nn.Conv2d(1, 1, 3)>>> out = ...原创 2020-03-11 23:50:03 · 8457 阅读 · 0 评论 -
PyTorch 的 abs 函数是否会打断梯度反向求导或者计算图
结论使用 torch.abs 求绝对值并不会打断计算图使得反向求导出错。示例>>> import torch>>> import torch.nn as nn>>> inp = torch.randn(1, 1, 4, 4)>>> conv = nn.Conv2d(1, 1, 3)>>> out...原创 2020-03-11 12:51:12 · 3623 阅读 · 0 评论 -
PyTorch view和reshape的区别
相同之处都可以用来重新调整 tensor 的形状。不同之处view 函数只能用于 contiguous 后的 tensor 上,也就是只能用于内存中连续存储的 tensor。如果对 tensor 调用过 transpose, permute 等操作的话会使该 tensor 在内存中变得不再连续,此时就不能再调用 view 函数。因此,需要先使用 contiguous 来返回一个 con...原创 2020-03-11 12:29:28 · 11406 阅读 · 0 评论 -
PyTorch torch.Tensor.contiguous() 用法与理解
中文文档:contiguous() → Tensor 返回一个内存连续的有相同数据的 tensor,如果原 tensor 内存连续则返回原 tensor英文文档:contiguous() → Tensor &...原创 2020-03-11 12:15:36 · 8275 阅读 · 2 评论