![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
Dynamicw
菜鸟起飞
展开
-
【深度学习】empty() received an invalid combination of arguments - got (tuple, dtype=NoneType, device=None
构建yoloV3的resblock时,python的一个小坑在构建一个简单的卷积层时,出现如下的错误:代码如下:class resblock(nn.Module): def __init__(self,inputDims): super(resblock,self).__init__() self.inputChannels = inputDims self.middleChannels = int(inputDims/2) #原创 2022-03-24 10:45:25 · 10007 阅读 · 7 评论 -
Pytorch中GPU使用
本文中的内容转载自:《动手学深度学习》GPU计算到目前为止,我们一直在使用CPU计算。对复杂的神经网络和大规模的数据来说,使用CPU来计算可能不够高效。在本节中,我们将介绍如何使用单块NVIDIA GPU来计算。所以需要确保已经安装好了PyTorch GPU版本。准备工作都完成后,下面就可以通过nvidia-smi命令来查看显卡信息了。!nvidia-smi # 对Linux/macOS用户有效输出:Sun Mar 17 14:59:57 2019 +--------------原创 2021-04-29 15:42:53 · 972 阅读 · 0 评论 -
Pytorch中参数和模型的保存与读取
Tensor变量的存取(包括parameter)对于普通Tensor变量的存取,如下代码所示:import torchimport torch.nn as nnx = torch.ones(3)torch.save(x,'x.pt')x2 = torch.load('x.pt')print(x2)读写模型参数保存模型参数torch.save(net.state_dict(),'model_param.pth')载入模型参数mynet = MLP()mynet.load_stat原创 2021-04-29 15:36:13 · 812 阅读 · 0 评论 -
初识卷积神经网络
一、LeNet网络(1998)LeNet网络有五层。两个卷积层,三个全连接层。这里说的卷积层包括激活层和池化层,全连接层包括连接层和激活层。self.conv = torch.nn.Sequential( torch.nn.Conv2d(in_channels=1,out_channels=6,kernel_size=5,stride=1,padding=0),原创 2020-09-03 15:31:22 · 168 阅读 · 0 评论 -
pytorch中CrossEntropyLoss和NLLLoss的区别与联系
pytorch中CrossEntropyLoss和NLLLoss的区别与联系CrossEntropyLoss和NLLLoss主要是用在多分类问题的损失函数,他们两个既有不同,也有不浅的联系。先分别看一下:CrossEntropyLoss称为交叉熵损失函数,主要的计算公式为:loss(x,class)=−log(eclass∑j(ex[j]))loss(x,class)=-log(\frac{e^{class}}{\sum_j(e^{x[j]})})loss(x,class)=−log(∑j(ex[原创 2020-07-16 14:36:47 · 1824 阅读 · 0 评论