G1D25-蜜汁APEX-RAGA代码运行&友友第一次跑模型

一、APEX

英伟达开发的,压缩数据的框架
在这里插入图片描述

(一)安装bug

直接安装
https://blog.csdn.net/weixin_47658790/article/details/115055505

(二)运行bug

然后运行又出现了bug-----------------------
IndexError: tuple index out of range ----- Python

https://github.com/NVIDIA/apex/pull/1282
上面的好像不太管用,改utils.py源码
# if cached_x.grad_fn.next_functions[1][0].variable is not x:
if cached_x.grad_fn.next_functions[0][0].variable is not x:

二、RAGA代码

(一)OOM

报错
Tried to allocate 364.00 MiB (GPU 0; 4.00 GiB total capacity; 2.71 GiB already allocated; 0 bytes free; 3.16 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

看一下报错的含义
https://blog.csdn.net/weixin_57234928/article/details/123556441
如此看来,2.71G的内存+一些缓存,导致没有空间(0 free),然后开始清理缓存,最后留下来了总共3.16G的内容。之前还有364没load,感觉还有希望

改batch实在改不动了
只好把隐藏层dim改一下,从100改成10
可以跑动了,但是在每次打分时,又爆了,emm所以试一下
with torch.no_grad()

每次都是test的时候爆内存,后来发现,test是train的2倍了,改小一点
在这里插入图片描述
test改成100个试一下

成功!
在这里插入图片描述

(二)torch基础

探索了一下[]的使用
a[0]代表tensor a第1维的第0个;
a[1]代表tensor a第1维的第1个;
a[0][2]代表tensor a第1维的第0个的第2维的第2个;

在这里插入图片描述

想不明白为什么1维tensor
[]ha在这里插入图片描述
还是一维的,后来突然想到,如果[]中也是tensor会怎样?

emm做实验不成功,先不看了我哭

三、RAGA pre

我真的觉得我这页GCN的ppt做的好好啊
在这里插入图片描述

四、DP pre

(一)defaultdict在这里插入图片描述

这个东西好神奇呀。
直接可以用字典表示二维数组的形式

芜湖

第一次可以熬夜~
快12点啦~睡啦睡啦

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Transformer发轫于NLP(自然语言处理),并跨界应用到CV(计算机视觉)领域。 Swin Transformer是基于Transformer的计算机视觉骨干网,在图像分类、目标检测、实例分割、语义分割等多项下游CV应用中取得了SOTA的性能。该项工作也获得了ICCV 2021顶会最佳论文奖。 本课程将手把手地教大家使用labelImg标注和使用Swin Transformer训练自己的数据集。  本课程将介绍Transformer及在CV领域的应用、Swin Transformer的原理。 课程以多目标检测(足球和梅西同时检测)为例进行Swin Transformer实战演示。 课程在Windows和Ubuntu系统上分别做项目演示。包括:安装软件环境、安装Pytorch、安装Swin-Transformer-Object-Detection、标注自己的数据集、准备自己的数据集(自动划分训练集和验证集)、数据集格式转换(Python脚本完成)、修改配置文件、训练自己的数据集、测试训练出的网络模型、性能统计、日志分析。  相关课程: 《Transformer原理与代码精讲(PyTorch)》https://edu.csdn.net/course/detail/36697《Transformer原理与代码精讲(TensorFlow)》https://edu.csdn.net/course/detail/36699《ViT(Vision Transformer)原理与代码精讲》https://edu.csdn.net/course/detail/36719《DETR原理与代码精讲》https://edu.csdn.net/course/detail/36768《Swin Transformer实战目标检测:训练自己的数据集》https://edu.csdn.net/course/detail/36585《Swin Transformer实战实例分割:训练自己的数据集》https://edu.csdn.net/course/detail/36586《Swin Transformer原理与代码精讲》 https://download.csdn.net/course/detail/37045
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值