pytorch
文章平均质量分 54
zhangjipinggom
俗人
展开
-
Debug: one of the variables needed for gradient computation has been modified by an inplace operati
pytorch Debug记录1. 问题描述网络能计算出output,也能计算loss,但是在loss.backward()会报错:RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation2. 解决办法开始我以为是网络结构的问题,就一直找网络那里,后来发现是loss的问题(loss和网络都是继承于nn.Module),我在定义l..原创 2021-09-08 13:43:54 · 175 阅读 · 0 评论 -
pytorch Dataloader 速度慢
1. 问题描述Dataloader每读完一个batch中间会间隔2s左右,很浪费时间,而且确定不是由于Dataset的__getitem__()复杂导致的。并且有一个规律,如果设置num_works=4,会出现4个batch一批很快,然后中间又间隔2s,再4个batch很快,再间隔。。。设成其他>0(多线程)的值同样规律。2. 解决办法等。。。其他CPU或者内存占用很大的程序结束。中间试过网上的prefetch,DataloaderX。基本没什么用。。。。3. 原因可能原因..原创 2020-06-30 11:29:23 · 6849 阅读 · 8 评论 -
cuda error
1. 问题描述想把从图像手工生成的特征和经过backbone提取的特征concatenate起来再进入网络后面的层:x_added_coord = torch.cat([x_backbone, x_coord], 1)报错:RuntimeError: CUDA error: an illegal memory access was encountered2. 解决办法:(1)只是用一个GPU(2)或者获知使用CPU训练...(不大现实)(3)或者把特征都放到cuda:0: x_...原创 2020-06-27 17:57:26 · 926 阅读 · 0 评论 -
【plt】subplot设置子图大小
仅记录1. 问题描述:想设置每个子图的大小2. 实现代码:fig, (axes1, axes2) = plt.subplots(2, 1, figsize=(100, 10))axes1.plot(np.arange(time_length), np.zeros(time_length))axes2.plot(np.arange(time_length), np.zeros(t...原创 2020-01-07 16:04:10 · 58371 阅读 · 8 评论 -
tensor和数值相乘
1. 问题描述:tensor和数值相乘得到的数据类型为tensor,但是结果无法理解。得到正确的数值需要改为tesnor和tensor相乘或者数值和数值相乘。(1) tensor和数值相乘(2) tensor和tensor相乘(3)数值和数值相乘...原创 2019-09-11 10:25:10 · 5602 阅读 · 0 评论 -
pytorch Dataset and Datasetloader
在使用pytorch构架数据集的时候,使用torch.utils.data.Dataset和torch.utils.data.DataLoader会大大提高效率,且基本能满足需求。这里主要记录个人对于torch.utils.data.Dataset和torch.utils.data.DataLoader的理解1.torch.utils.data.Dataset:pytorch对于Data...原创 2019-09-02 17:00:17 · 1960 阅读 · 0 评论 -
Pytorch model.load_state_dict()
1. 问题描述:当运行到model.load_state_dict(torch.load(trained_model.pth)["state_dict"])时报错:Missing key(s) in state_dict: "conv1.weight", "bn1.weight", "bn1.bias", "bn1.running_mean", "bn1.running_var"...Un...翻译 2019-08-22 09:59:45 · 21724 阅读 · 1 评论 -
【第一次参加kaggle比赛记录-Quora Insincere Questions Classification】- Word Embedding
In summary, word embeddings are a representation of the *semantics* of a word, efficiently encoding semantic information that might be relevant to the task at hand.1. word embedding在干什么?word embedd...原创 2019-01-24 11:02:51 · 240 阅读 · 0 评论 -
【pytorch】torch.utils.data.DataLoader
https://blog.csdn.net/zkp_987/article/details/81078923https://ptorch.com/docs/1/utils-data转载 2018-12-28 10:54:53 · 852 阅读 · 0 评论 -
【pytorch-autograd】
解释的官网:https://pytorch.org/tutorials/beginner/blitz/autograd_tutorial.html#sphx-glr-beginner-blitz-autograd-tutorial-py“”1.x = torch.ones(3, requires_grad=True)y = x * 2v = torch.tensor([1, ...原创 2018-12-27 18:33:54 · 140 阅读 · 0 评论