![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
torch
视觉弘毅
主要涉及计算机视觉中的语义分割,目标检测,三维视觉重建,行为识别等
展开
-
torch中repeat()函数的准确理解
pytorch中,repeat()这个函数的功能是很容易理解的,但是函数在不同参数下的执行逻辑通常还是会让初次接触的同学有点疑惑,今天仔细想了一下,感觉可以以这样的方式去理解:原创 2022-03-05 16:55:44 · 12306 阅读 · 3 评论 -
Rect Traing for saving memory
code for Rect Traing like YOLOv5.原创 2022-01-08 11:46:44 · 1339 阅读 · 0 评论 -
通俗理解torch.distributed.barrier()工作原理
在pytorch的多卡训练中,有一种基于分布式形式的训练模式,在此模式下,不同节点进程之间的数据同步是通过torch的一个函数torch.distributed.barrier()实现。原创 2020-11-19 19:18:02 · 29413 阅读 · 17 评论 -
基于pytorch的深度模型参数分别优化与冻结
问题:在深度学习的模型的训练的过程中,经常会遇到需要对不同的模型参数设置不同的学习策略,比如使用不同的学习率,设置权重衰减等,在pytorch框架中的设置相对来说是比较简单的。pytorch中的设置:#coding:utf-8import torchfrom torchvision import models#模型初始化model = models.resnet50(pretrained=True)#根据需要,进行参数分组(权重衰减设置)pg0, pg1, pg2 = [],原创 2020-11-19 15:24:31 · 708 阅读 · 0 评论 -
使用pytorch查看设备显卡详细信息
1、设置可用显卡import osos.environ["CUDA_VISIBLE_DEVICES"] = '0,1,2,3'2、查看当前设备环境可用显卡数量ng = torch.cuda.device_count()print("Devices:%d" %ng)3、查看可用显卡的具体信息(型号、算力,显存以及线程数)import torchinfos = [torch.cuda.get_device_properties(i) for i in range(ng)].原创 2020-11-19 11:33:25 · 11232 阅读 · 0 评论