自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 cuda、python、pytorch 版本兼容查看顺序及网站

安装 pytorch 时,若要使用 GPU,需要考虑与 CUDA,python 的版本兼容情况。推荐考虑顺序:CUDA 电脑GPU可/在使用的版本,pytorch可兼容CUDA的版本,python可兼容 pytorch的版本。在一个有GPU的电脑上安装pytorch时选择合适版本。接着,安装python,pytorch及其依赖项。

2023-09-08 22:22:26 2237 1

原创 使用FVD时遇到的问题记录:使用tensorflow时batch_size不变的情况下使用数据量更大的dataset发生了显存溢出(OOM)问题 的解决

情况:计算 FVD 时,使用 dataset-1 时运行成功,使用数据量(data size)更大的 dataset-2 时运行失败。报错OOM:显存溢出。查找问题:比较两次计算时的 input video 的 data shape,发现成功的那个是:[2, 64, 224, 224, 3],失败的那个是:[2, 180, 224, 224, 3]。注:shape各dim的含义是:[batch_size, num_frames, height, weight, depth]发现不对劲:input 的

2022-05-21 16:38:28 546

原创 关于TensorFlow和PyTorch共同安装的兼容版本尝试的记录 - env_name: tftorch

因为要使用的代码需要TensorFlow,而原本代码是基于PyTorch的,所以正在研究哪些TensorFlow和PyTorch版本可以兼容。因为要尽量保证两个代码都能够运行,所以比较麻烦。在这里专门记录一下,主要是寻找合适兼容版本的思路,以及相关零散但有用信息的命令、用于查找的网站的记录。.........

2022-04-16 20:19:54 5832

原创 深度优先遍历与广度优先遍历和栈与队列结构的关系回顾

算法与数据结构相关回顾对应关系深度优先遍历(DFS) —— 栈堆广度优先遍历(BFS) —— 队列遍历目标:寻找图中某一节点到另一节点的最短路径。区别栈堆:直接保存了遍历的最短路径即,找到目标节点后的栈堆内依旧存在的节点就是其最短路径。队列:通过step记录可以知道最短路径长度即,找到目标节点后的一个step变量记录了该目标节点与根节点(即起始节点)的距离。如果每个节点都记录了其父节点的信息,则可以依据找到的目标节点一步步反推,得到该最短路径所经过的所有节点。另,最短

2021-05-27 23:14:54 720

原创 关于数据库下载

关于数据库下载笔记1. 相关链接KTH:https://www.csc.kth.se/cvap/actions/Weizmann:http://www.wisdom.weizmann.ac.il/~vision/SpaceTimeActions.html2. 遇到的问题下载 KTH dataset 时,发现用Chrome浏览器网址打不开,换成QQ浏览器,成功打开并下载zip压缩包。具体过程:找到“Action database in zip-archives (DivX-compress

2021-05-06 11:22:36 487

原创 关于使用 hook 获取神经网络内部features时遇到的问题和解决方案的记录

关于使用 hook 获取神经网络内部features时遇到的问题和解决方案的记录一、错误代码:feat = []def hook(module, inputs, outputs): feat.append(inputs.clone().to(device))二、报错:AttributeError: 'tuple' object has no attribute 'clone'原因分析:inputs是一个由多个Tensor类型数据作为元素组成的Tuple数据。三、解决方案思考:由于后

2021-05-04 12:20:35 300

原创 加载模型参数到使用 DataParallel(model) 的模型的两种方法的代码

load model weights into DataParallel(model) 的两种方法的代码方法一G = Generator().to(device)G.load_state_dict(torch.load(args.model_path))G = nn.DataParallel(G) # 这样在传递时 G 的参数会被重置吗?经测试,没有明显差别方法二G = Generator().to(device)G = nn.DataParallel(G)G.module.load_sta

2021-03-05 18:05:28 911

原创 pth文件保存的模型参数对不同GPU环境不适应问题的解决方案研究

对于更改已保存的model weights以适应不同GPU数目的运行环境的(非正式、简略)研究的记录————————————brief——————————————结论:可行转换pth的代码思路简述load weights of DataParallel(model) run in 2gpusave weights of model in .pth file.—— 实际上到这一步已经可以了。有了这个 pth 文件,基本就OK了。我是因为积重难返,只能再加上后面几步操作来更好地解决自己遇到的问题。

2021-03-05 17:56:44 443

原创 DataParallel(model)的相关研究

DataParallel(model)的相关研究前提/已知:DataParallel用于多GPU并行计算,问题:那如果先用2个GPU来 training DataParallel(model)并保存权重,再load该权重到使用4个GPU来 training 的 DataParallel(model) 上,会不会报错?探究/实验设计:先用2gpu训练一个模型两天,并保存整个DataParallel(model)而非model的权重。然后,用 1 个GPU初始化 DataParallel(model

2021-03-04 15:39:52 562 3

原创 关于只用txt文件编程python时遇到的一些编码(utf-8)问题

一般用txt文件编程只是应急方法。简单来说,在txt文件内写好代码。然后,将文件重命名,后缀名由.txt改为.py。接下来就是在DOS界面进行运行了。这是没有安装python IDLE,即没有专门用于python编程的集成环境时的应急方法。而我因为用了anaconda,可以直接在jupyter notebook上编程,就懒得再下载Python IDLE了。然后就遇到了一个有趣的事情。因为有些代码涉及了与命令行,也就是DOS界面的交互。所以,用了txt文件编程,也即上一段介绍的方法。这个时候,在改为.py文

2020-07-13 11:02:45 323

原创 关于Windows10下面的nmap包安装到anaconda搭建的虚拟环境中的方法、流程

关于Windows10下面的nmap包安装到anaconda搭建的虚拟环境中的方法、流程步骤简介第一步第二步曾经遇到的问题建议步骤简介第一步:先官网下载并安装nmap,添加环境变量。第二步:再用prompt activate对应虚拟环境,然后pip安装nmap与python-nmap。第一步nmap软件的官网.如以下截图所示,点击官网中的 nmap-7.80-setup.exe下载安装包。下载完成后的安装包如下图所示,黑框部分才是下载的安装包,其它的不用管。直接双击安装。安装时除了安装路

2020-07-08 22:51:08 806

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除