![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
littlehaes
这个作者很懒,什么都没留下…
展开
-
安装pytorch报错 ModuleNotFoundError: No module named tools.nnwrap
welcome to my blog问题描述: 在windows上安装pytorch报错: ModuleNotFoundError: No module named ‘tools.nnwrap’解决方法: 去官网选择适合自己电脑配置的安装命令原创 2020-06-08 15:33:51 · 1080 阅读 · 0 评论 -
pytorch tensor.all() tensor.any()
welcome to my blogtensor.any()功能: 如果张量tensor中存在一个元素为True, 那么返回True; 只有所有元素都是False时才返回Falseimport torcha = torch.tensor([True,True,False])print(a.any())# 打印结果 tensor(True)b = torch.tensor([False...原创 2020-01-12 14:42:06 · 18232 阅读 · 1 评论 -
RuntimeError: exp_vml_cpu not implemented for 'Long'
welcome to my blog问题描述: 执行torch.exp(torch.tensor([2]))报错, RuntimeError: exp_vml_cpu not implemented for ‘Long’原因: torch.exp()操作不支持Long类型的张量作为输入解决方法: 将张量转为浮点型即可, 执行torch.exp(torch.tensor([2.0]))或者执行...原创 2020-01-04 20:36:30 · 6900 阅读 · 0 评论 -
pytroch中ctx和self的区别
welcome to my blog阅读某个pytorch模型源代码时碰见的ctx参数, 查阅了资料大概总结一下ctx貌似是context的缩写, 翻译成"上下文; 环境"ctx专门用在静态方法中self指的是实例对象; 而ctx用在静态方法中, 调用的时候不需要实例化对象, 直接通过类名就可以调用, 所以self在静态方法中没有意义ctx.save_for_backward(a, b...原创 2020-01-03 23:05:59 · 11943 阅读 · 1 评论 -
pytorch 反向传播 自动求导
welcome to my blog输出是个标量# 设y=2x^2# 当x=2时, y对x求导的结果8, 下面进行验证x = torch.tensor([2],dtype=torch.float,requires_grad=True)y = 2*x*x# 反向求导y.backward()# 保存y对x求导的结果res = x.gradprint(res)# 求导结果: ten...原创 2020-01-03 17:57:37 · 2128 阅读 · 0 评论 -
pytorch Tensor在cpu和gpu之间转换
创建一个tensora = torch.arange(10)'''tensor([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])device(type='cpu') 默认在cpu上'''从cpu转到gpu上a = torch.arange(10).cuda()'''device(type='cuda', index=0) 调用cuda()方法后Tensor存储在g...原创 2020-01-02 17:41:36 · 5760 阅读 · 0 评论 -
pytorch中的广播机制
welcome to my blogpytorch中的广播机制和numpy中的广播机制一样, 因为都是数组的广播机制两个维度不同的Tensor可以相乘, 示例a = torch.arange(0,6).reshape((6,))'''tensor([0, 1, 2, 3, 4, 5])shape: torch.Size([6])ndim: 1'''b = torch.arang...原创 2020-01-02 17:07:04 · 12000 阅读 · 3 评论 -
RuntimeError: Can't call numpy() on Variable that requires grad. Use var.detach().numpy() instead
welcome to my blog问题描述我想将pytorch的计算结果赋值给numpy array, S[i, v] = torch.div(row_res, row_sum), 其中S是numpy array, 结果报错RuntimeError: Can’t call numpy() on Variable that requires grad. Use var.detach().num...原创 2020-01-02 11:11:45 · 8574 阅读 · 1 评论 -
RuntimeError: log_vml_cpu not implemented for 'Long'
welcome to my blog问题描述执行torch.log(torch.from_numpy(np.array([1,2,2])))报错, 错误信息为:RuntimeError: log_vml_cpu not implemented for ‘Long’原因Long类型的数据不支持log对数运算, 为什么Tensor是Long类型? 因为创建numpy 数组时没有指定dtype,...原创 2020-01-02 10:58:53 · 10533 阅读 · 0 评论 -
pytorch基本数学运算 加法 减法 乘法 除法 指数 对数 绝对值
welcome to my blog加法a = torch.Tensor(np.arange(6).reshape((2,3)))'''a的值tensor([[0., 1., 2.], [3., 4., 5.]])'''b = torch.Tensor(np.arange(6).reshape((2,3)))'''b的值tensor([[0., 1., 2.],...原创 2020-01-02 10:36:10 · 14373 阅读 · 0 评论 -
成功解决 pytorch 向量归一化, 向量除以模长
welcome to my blog问题描述: 想对向量归一化, 或者说 让向量除以模长解决方法, 看示例import torchimport torch.nn.functional as Fa = torch.arange(9, dtype= torch.float)a = a.reshape((3,3))print(a)'''tensor([[0., 1., 2.], ...原创 2019-12-18 10:44:38 · 19637 阅读 · 0 评论 -
/pytorch/aten/src/THCUNN/ClassNLLCriterion.cu:106: void cunn_ClassNLLCriterion_updateOutput_kernel(D
welcome to my blog头一次使用pytorch, 调用交叉熵损失函数nn.CrossEntropyLoss()的时候报错/pytorch/aten/src/THCUNN/ClassNLLCriterion.cu:106: void cunn_ClassNLLCriterion_updateOutput_kernel(Dtype *, Dtype *, Dtype *, long ...原创 2019-10-29 18:50:05 · 11612 阅读 · 2 评论