
Pytorch
Sailist
这个作者很懒,什么都没留下…
展开
-
【最佳实践】.pth还是.tar?
pytorch的官方教程里提供了相关说明:只保存模型用于以后的推断的话使用.pth或.pt,这样可以直接加载模型A common PyTorch convention is to save models using either a .pt or .pth file extension.torch.save(model, "model.pth") # or .ptmodel = tor...原创 2020-01-06 18:40:53 · 12534 阅读 · 0 评论 -
【最佳实践】pytorch模型权重的重置与重新赋值
重置为原来的值:def weight_reset(m): if isinstance(m, nn.Conv2d) or isinstance(m, nn.Linear): m.reset_parameters()model = = nn.Sequential( nn.Conv2d(3, 6, 3, 1, 1), nn.ReLU(), nn.Li...原创 2020-01-03 16:00:46 · 10179 阅读 · 0 评论 -
numpy.dot与pytorch.dot的等价性
都对于一维向量时,numpy和pytorch的dot方法等价,都表示两向量内积,当多维时,numpy.dot可以很好的扩展,而torch则需要更换为mm方法原创 2020-01-01 16:35:57 · 4843 阅读 · 0 评论 -
【最佳实践】对多个模型进行训练时的参数获取问题
使用itertools中的chain方法将模型中的参数链接到一起:optimizer = optim.Adam(params=chain(backbone_net.parameters(), linear_rot_net.parameters(), ...原创 2020-01-01 16:34:04 · 502 阅读 · 0 评论 -
【最佳实践】半监督学习中对有监督数据集和无监督数据集的采样问题
对于少量的有监督数据集和大量的无监督数据集,只用zip的话,那么取完有监督数据集后剩下的无监督数据集就浪费了,这个时候可以使用python内置的itertools,将其中的小部分变成循环采样:from itertools import cyclefor idx, (sup_data, un_data) in enumerate(zip(cycle(sup_dataloader), unsup_...原创 2020-01-01 13:46:38 · 6520 阅读 · 2 评论 -
【最佳实践】pytorch获取top1和topk准确率
def eval(eval_dataloader,k = 5): with torch.no_grad(): total = 0 top1 = 0 topk = 0 for (test_imgs, test_labels) in eval_dataloader: test_labels = test_l...原创 2020-01-01 13:45:18 · 9907 阅读 · 0 评论