![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Pytorch
xytywh
这个作者很懒,什么都没留下…
展开
-
Pytorch下载的预训练模型
下载Pytorchde下载的预训练模型在/root/.cache/torch/checkpoints/位置。原创 2019-11-16 21:22:21 · 1009 阅读 · 1 评论 -
Pytorch中torch.Tensor和torch.tensor()的区别
torch.Tensor()torch.tensor()原创 2019-03-20 10:14:09 · 6620 阅读 · 0 评论 -
Pytorch求导
1.标量对矩阵求导验证:>>>import torch>>>a = torch.tensor([[1],[2],[3.],[4]]) # 4*1列向量>>>X = torch.tensor([[1,2,3],[5,6,7],[8,9,10],[5,4,3.]],requires_grad=True) #4*3矩阵>&g...原创 2019-03-20 16:25:01 · 3268 阅读 · 0 评论 -
Pythorch torch.nn 与 torch.nn.functional的区别
我们知道在torch.nn和torch.nn.functional中有许多类似的激活函数或者损失函数,例如:torch.nn.ReLU 和 torch.nn.functional.relutorch.nn.MSEloss 和 torch.nn.functional.mse_loss那么他们有什么区别呢?1.在定义函数层(继承nn.Module)时,init函数中应该用torch.nn,...原创 2019-04-11 12:35:56 · 4258 阅读 · 0 评论 -
pytorch基础
1.训练时顺序 #第一种写法 #梯度置零,也就是把loss关于weight的导数变成0 optimizer.zero_grad() #前馈计算输出和损失 outputs = net(images) loss = criterion(outputs, labels) #反向传播 loss.backward(...原创 2019-05-09 15:24:04 · 211 阅读 · 0 评论 -
Pytorch中BCELoss,BCEWithLogitsLoss和CrossEntropyLoss的区别
BCEWithLogitsLoss用于单标签二分类或者多标签二分类,输出和目标的维度是(batch,C),batch是样本数量,C是类别数量,对于每一个batch的C个值,对每个值求sigmoid到0-1之间,所以每个batch的C个值之间是没有关系的。每个C值代表属于一类标签的概率。如果是单标签二分类,那输出和目标的维度是(batch,1)即可。CrossEntropyLoss用于多类别分类,...原创 2019-06-21 16:20:33 · 19542 阅读 · 8 评论