![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
大白成长记
积极心态,宽阔胸襟,go go go go!!!
展开
-
pytorch中torch.nn.dropout和torch.nn.F.dropout区别
链接地址转载 2020-08-09 09:24:32 · 1676 阅读 · 1 评论 -
训练model过程中,loss=nan问题时该怎么解决?
当我在UCF-101数据集训练alexnet时,epoch设为100,跑到三十多个epoch时,出现了loss=nan问题,当时是一脸懵逼,在查阅资料后,我通过减小学习率解决了问题,现总结一下出现这个问题的可能原因及解决方法:1. 减小整体学习率。学习率比较大的时候,参数可能over shoot了,结果就是找不到极小值点;减小学习率可以让参数朝着极值点前进;2. 改变网络宽度。有可能是网络后面的层参数更新异常,增加后面层的宽度试试;3. 改变层的学习率。每个层都可以设置学习率,可以尝试减小后...转载 2020-08-08 18:57:44 · 911 阅读 · 0 评论 -
python画attention map 与原热力图叠加
python 画attention map 与原图叠加转载 2019-12-17 20:47:04 · 6147 阅读 · 0 评论 -
python中base feature 保存.h5
import h5pywith h5py.File('attention_map.h5','w') as f: m = torch.squeeze(base_feat.detach()) #pdb.set_trace() m=m.sum(0)/1024.0 m=m.unsqueeze(2).expand(38,53,3) #pdb.set_tr...原创 2019-12-17 20:44:37 · 223 阅读 · 0 评论 -
python中缩小图片并保持
# -*- coding: utf-8 -*-from torchvision import transformsfrom PIL import Imageimport warningswarnings.filterwarnings("ignore")img = Image.open('/home/images/969743078.jpg')print(type(img)...原创 2019-12-17 20:42:26 · 1041 阅读 · 0 评论 -
随机生成热力图
python随机生产热力图python中绘制场景热力图,半径可调转载 2019-12-17 20:40:01 · 730 阅读 · 0 评论 -
argparse 使用
argparse的使用转载 2019-09-03 15:50:52 · 93 阅读 · 0 评论 -
tetach()截断反向传播
与data的区别链接:tetach()与data()转载 2019-05-08 09:09:11 · 507 阅读 · 0 评论 -
model.train及model.eval
链接:model.train()及model.eval()转载 2019-05-07 10:13:12 · 2105 阅读 · 0 评论 -
PyTorch学习之归一化层(BatchNorm、LayerNorm、InstanceNorm、GroupNorm)
链接:各种归一化详细介绍及解释转载 2019-05-14 16:37:17 · 3200 阅读 · 0 评论 -
nn.ReflectionPad2d()详细说名
1,nn.ReflectionPad2d()类型于镜像填充:应用,2,原理,即与padding填充的区别转载 2019-05-14 16:24:46 · 4779 阅读 · 0 评论 -
pytorch中的item()用法
item是得到一个元素张量里面的元素值 链接:pytorch 张量相加的四种方法转载 2019-05-06 20:50:20 · 32721 阅读 · 2 评论 -
pytorch中的一般的损失函数
链接:pytorch一般损失函数转载 2019-05-08 10:23:59 · 803 阅读 · 0 评论