![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch深度学习
论文复现并优化
这个作者很懒,什么都没留下…
展开
-
pytorch实现模型蒸馏
#首先导入模块、准备数据import torchfrom torch.utils.data import DataLoaderimport torch.utils.data as Dataimport torchvision.transforms as transformsimport numpy as npimport osfrom torch.autograd import Variableimport torch.nn as nnimport torch.nn.functional原创 2020-05-27 16:16:52 · 3145 阅读 · 6 评论 -
为什么模型loss为负
一般loss为负是在loss采用交叉熵的情况下:可以将softmax 改为 log_softmax原创 2020-05-27 15:33:14 · 9424 阅读 · 2 评论 -
pytorch 打印参数的总规模
#model 为你要打印的参数模型print("Total number of paramerters in networks is {} ".format(sum(x.numel() for x in model.parameters())))原创 2020-05-27 15:29:55 · 417 阅读 · 0 评论 -
pytorch 模型保存、加载
保存模型加载分为两种:1.只保存加载模型参数torch.save(model.state_dict(), '\modelname.pkl')# 加载到模型中,首先新建模型,然后加载参数newmodel= NewModel(...)newmodel.load_state_dict(torch.load('\modelname.pkl'))2.保存完整模型#保存模型torch.save(model, '\modelname.pkl')# 加载模型model = torch.load('\m原创 2020-05-24 10:24:13 · 163 阅读 · 0 评论 -
pytorch加载预训练模型、微调、以及现有模型中加入自己的层、为不同层设置不同的参数更新
**加载预训练:**分为两种1.加载自己之前训练的模型。pretrained_params = torch.load('Pretrained_Model')model = New_Model(xxx)model.load_state_dict(pretrained_params.state_dict(),strict=False)2.加载pytorch中模型以残差网络18为例import torchvision.models as modelsresnet18 = models.resne原创 2020-05-23 20:40:31 · 7143 阅读 · 1 评论