pytorch学习
NicoNull
这个作者很懒,什么都没留下…
展开
-
pytorch-debug-1
RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation报错信息为一个inpalce操作和梯度冲突了1.什么是inplace操作?inplace操作即用该变量更新该变量自己的值,形如下面的x+=1b=x.exp_()(x.exp_()inplace操作了)2.错误产生的原因如下面代码对结果backward()就会报RuntimeErro原创 2020-08-03 18:58:52 · 293 阅读 · 0 评论 -
pytorch学习6-卷积神经网络实现mnist手写数字识别
卷积神经网络实现mnist手写数字识别卷积神经网络的结构为ConvNet((layer1): Sequential((0): Conv2d(1, 16, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))(1): BatchNorm2d(16, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)(2): ReLU()(3): MaxPool2d(kernel_size=原创 2020-07-23 20:29:11 · 306 阅读 · 0 评论 -
pytorch学习5-MLP实现mnist手写数字识别
CNN实现mnist手写数字识别1.mnis数据集one-hot编码1.mnis数据集one-hot编码原创 2020-07-23 20:23:27 · 3557 阅读 · 0 评论 -
pytorch学习4-构建神经网络
构建神经网络1.定义一个包含可训练参数的神经网络2.迭代整个输入3.通过神经网络处理输入4.计算损失(loss)反向传播梯度到神经网络的参数6.更新网络的参数,典型的用一个简单的更新方法:weight = weight - learning_rate *gradient...原创 2020-07-23 18:52:53 · 134 阅读 · 0 评论 -
pytorch学习3-自动微分
自动微分创建一个张量,设置 requires_grad=True 来跟踪与它相关的计算如果将其属性 .requires_grad 设置为 True,则会开始跟踪针对 tensor 的所有操作。import torch#创建一个张量,设置 requires_grad=True 来跟踪与它相关的计算#如果将其属性 .requires_grad 设置为 True,则会开始跟踪针对 tensor 的所有操作。x = torch.ones(2, 2, requires_grad=True)print(x原创 2020-07-23 18:47:07 · 121 阅读 · 0 评论 -
pytorch学习2
运算(1)torch.nn.functional.softmax(input, dim)dim:指明维度,dim=0表示按列计算;dim=1表示按行计算。默认dim的方法已经弃用了,最好声明dimimport torchx = torch.randn(3, 4)y=torch.nn.functional.softmax(x, dim=0)print(x)print(y)(2)张量的点乘,即哈达马积,torch.mul()# 张量的点乘,即哈达马积,torch.mul()x=torch.原创 2020-07-23 18:33:47 · 76 阅读 · 0 评论 -
pytorch学习1
【1】基础导入torchimport torch创建一个shape=[5,3]的tensor# 构造一个空的5*3的矩阵x=torch.empty(5,3)print(x)output:tensor([[8.9082e-39, 5.9694e-39, 8.9082e-39], [1.0194e-38, 9.1837e-39, 4.6837e-39], [9.9184e-39, 9.0000e-39, 1.0561e-38], [1.0653e原创 2020-07-23 17:54:39 · 139 阅读 · 0 评论