- 博客(53)
- 收藏
- 关注
转载 RuntimeError: cuda runtime error (59) : device-side assert triggered
RuntimeError: cuda runtime error (59) : device-side assert triggered
2020-10-30 10:13:14 173
转载 训练model过程中,loss=nan问题时该怎么解决?
当我在UCF-101数据集训练alexnet时,epoch设为100,跑到三十多个epoch时,出现了loss=nan问题,当时是一脸懵逼,在查阅资料后,我通过减小学习率解决了问题,现总结一下出现这个问题的可能原因及解决方法:1. 减小整体学习率。学习率比较大的时候,参数可能over shoot了,结果就是找不到极小值点;减小学习率可以让参数朝着极值点前进;2. 改变网络宽度。有可能是网络后面的层参数更新异常,增加后面层的宽度试试;3. 改变层的学习率。每个层都可以设置学习率,可以尝试减小后...
2020-08-08 18:57:44 946
转载 Maximum Classifier Discrepancy for Unsupervised Domain Adaptation
Transferability vs. Discriminability: Batch Spectral Penalization for Adversarial Domain AdaptationMaximum Classifier Discrepancy for Unsupervised Domain Adaptation
2020-05-28 21:37:29 326
转载 目标检测评价标准mAP
1,自信度confidence只是用来排序。然后AP是由同一recall下的最高的准确度来进行面积计算来得到AP的分数。对于Recall >= {0, 0.14, 0.29, 0.43, 0.57, 0.71, 1},我们选取此时Percision的最大值:1, 1, 1, 0.5, 0.5, 0.5, 0。计算recall/precision下的面积:AP = (0.14-0)x1 + (0.29-0.14)x1 + (0.43-0.29)x0.5 + (0.57-0.43)x0.5 + (0.7
2020-05-25 21:30:39 1711
原创 python中base feature 保存.h5
import h5pywith h5py.File('attention_map.h5','w') as f: m = torch.squeeze(base_feat.detach()) #pdb.set_trace() m=m.sum(0)/1024.0 m=m.unsqueeze(2).expand(38,53,3) #pdb.set_tr...
2019-12-17 20:44:37 244
原创 python中缩小图片并保持
# -*- coding: utf-8 -*-from torchvision import transformsfrom PIL import Imageimport warningswarnings.filterwarnings("ignore")img = Image.open('/home/images/969743078.jpg')print(type(img)...
2019-12-17 20:42:26 1057
原创 Linux上建立软连接命令
建立软连接 : ln -s 源 目 ,源目共享源存储地址删除软连接: rm -rf 目 , 只是删除目的快捷访问建立硬链接: ln 源 目, 建立的是相当于一个文件存储在两个位置,可以有效防止误删。...
2019-11-12 11:01:27 969 1
转载 Transferable Attention for Domain Adaptation
Transferable Attention for Domain Adaptation笔记
2019-09-18 16:12:07 618
转载 Strong-Weak Distribution Alignment for Adaptive Object Detection笔记
Strong-Weak Distribution Alignment for Adaptive Object Detection
2019-09-09 20:40:42 763
原创 nn.ReLU与nn.LeakyReLU的区别
nn.ReLU(inplace=True)的理解:inplace为True,将会改变输入的数据 ,否则不会改变原输入,只会产生新的输出。ReLU函数即小于0的就等于0,大于0的就等于原函数.=max(0,x)=LeakyReLu的函数为...
2019-05-14 16:49:08 20702
转载 PyTorch学习之归一化层(BatchNorm、LayerNorm、InstanceNorm、GroupNorm)
链接:各种归一化详细介绍及解释
2019-05-14 16:37:17 3217
转载 nn.ReflectionPad2d()详细说名
1,nn.ReflectionPad2d()类型于镜像填充:应用,2,原理,即与padding填充的区别
2019-05-14 16:24:46 4813
转载 Unsupervised Domain Adaptation by Backpropagation 阅读笔记
链接:Unsupervised Domain Adaptation by Backpropagation笔记
2019-05-07 14:38:40 773
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人