pytorch常用知识记录

1. pytorch常用函数

 1.1 transforms

数据处理和数据增强方法

1.1.1转为 tensor:transforms.ToTensor

class torchvision.transforms.ToTensor
功能:将 PIL Image 或者 ndarray 转换为 tensor,并且归一化至[0-1]
注意事项:归一化至[0-1]是直接除以 255,若自己的 ndarray 数据尺度有变化,则需要自行
修改。

 1.1.2标准化:transforms.Normalize

class torchvision.transforms.Normalize(mean, std)
功能:对数据按通道进行标准化,即先减均值,再除以标准差,注意是 h*w*c
val_transformer = transforms.Compose([
    transforms.ToTensor(),
    transforms.Normalize((0.5,), (0.5,))
])

等于模型推理代码中的
input = (input-127.5)/127.5

1.2 model.train和model.eval

        在设计网络算法时需要设置两种网络模式: .train( )模式和.eval( )模式。model.train()和model.eval()的区别主要在于Batch Normalization和Dropout两层。

  • 在train模式下,BN层会继续计算全部数据的mean和var等参数并更新,dropout网络层会按照设定的参数p设置保留激活单元的概率(保留概率=p);

  • 在eval模式下,BN层会停止计算和更新mean和var,直接使用在训练阶段已经学出的mean和var值。dropout层会让所有的激活单元都通过。

  • 该模式不会影响各层的gradient计算行为,即gradient计算和存储与training模式一样,所以model.eval()也是能够通过backward进行梯度计算的。gradient就是进行反向传播才能获得的,只有step之后才会将gradient叠加到weight上面去。loss.backward() optimizer.step()

no_grad()在初始运行就没有为梯度开辟存储空间,也自然没有梯度计算 

1.3 冻结参数训练

        在分类模型下添加其他分支,一般会采用冻结分类模型,单独训练添加的分支。一般采用的方法是在模型定义的时候添加。

for p in self.parameters():
    p.requires_grad=False

然而事实却是,测试相关的性能指标一直在变!简言之,没有冻结?! 

打印网络层权值,发现冻结层的参数并没有改变!那么问题在哪里呢?仔细检查,发现竟然是BN层的runing_mean和runing_var在变!这两个值是统计得来的,因为模型中的 BN 层并不随 loss.backward() 与 optimizer.step() 来更新,而是在模型 forward 的过程中基于数据来更新。所以,param.requires_grad=False设置是不起任何作用的!

解决方法

法一

        如果是添加分支不存在BN层的话,可以在训练过程中将model.train()替换成model.eval(),所有BN层的runing_mean和runing_var都不会再更新了,同时分支的参数会更新。如果添加分支有BN层就不适用了。

    def train_epoch(self, epoch):
        desc = "Training Epoch {}".format(epoch)
        # self.model.train()
        self.model.eval()
        for img, headpose_gt in tqdm(self.train_dataloader, desc=desc):
            img = img.to(self.device)
            headpose_gt = headpose_gt.to(self.device)

法二

def fix_bn(m):
    classname = m.__class__.__name__
    if classname.find('BatchNorm') != -1:
        m.eval()

model = models.resnet50(pretrained=True)
model.cuda()
model.train()
model.apply(fix_bn) # fix batchnorm


参考
http://events.jianshu.io/p/142e2ab879d3

2.模型介绍

2.1 模型文件介绍

保存的模型参数实际上一个字典类型,通过key-value的形式来存储模型的所有参数,下面的模型只保存了模型的参数。

if __name__ == "__main__":
    model_path = "multi_classifier_22_best.pth"
    state_dict = torch.load(model_path, map_location="cuda:1")

    print(type(state_dict))  # 类型是 dict
    
    for k,v in state_dict.items():
        print(k, v.size())

        # features.0.0.weight torch.Size([16, 1, 3, 3])
        # features.0.1.weight torch.Size([16])
        # features.0.1.bias torch.Size([16])
        # features.0.1.running_mean torch.Size([16])

2.2 模型保存和模型加载

只保存参数

import torch
import torch.nn as nn

class Model(nn.Module):
    def __init__(self):
        super(Model, self).__init__()
        self.fc3 = nn.Linear(10, 1)

    def forward(self, x):
        x = self.fc3(x)
        return x

model = Model()
torch.save(model.state_dict(),"model.pt")  # 保存模型参数

 模型加载

# 加载模型
model = Model()
weights = torch.load("./model.pth")
model.load_state_dict(weights)


# 如果修改了载入权重或载入权重的结构和当前模型的结构不完全相同,需要加strict=False,这样设置就不需要载入权重和当前网络结构完全匹配
model.load_state_dict(weights, strict=False)

下面官网说发现既可以保存参数,又可以保存网络结构,但是torch.load()必须依赖网络结构定义,还是不行

torch.save(model,"model.pt")

torchscript 可以保存参数和网络结构,需要去验证一下 

例子

save_model.py

        for p in self.parameters():
            p.requires_grad=False

load_model.py

import torch

if __name__ == '__main__':
    model_path = "model.pt"
    mode = torch.load(model_path)

会报错

AttributeError: Can't get attribute 'Model' on <module '__main__' from '/home/sunny/code/py/pytorch/load_model.py'>

官网解释 

Save and Load the Model — PyTorch Tutorials 1.12.1+cu102 documentation

2.3 模型文件分析

查看每层对应的名称

for param_tensor in model.state_dict():
    print(param_tensor,'\t',model.state_dict()[param_tensor].size())

 网路结构和加载模型的权重文件匹配不上

import torch
from collections import OrderedDict

if __name__ == '__main__':
    landmark_model = "model.pt"
    state_dict = torch.load(landmark_model, map_location="cpu")

    # 网路结构和加载模型的权重文件匹配不上,即key对应不上,需要将模型修改成和网络结构一样
    new_state_dict = OrderedDict()  #将修改好的权重和文件保存到new_state_dict中
    for k,v in state_dict.items():
        if "module" in k:
            name = k[7:]
        else:
            name = k
        new_state_dict[name] = v

    # 打印新的模型权重
    for k,v in new_state_dict.items():
        print(k, v.size())

    # 网络结构定义
    model = Model()  
    # 打印网络的state_dict
    for k,v in model.state_dict().items():
        print(k, v.size())

    model.load_state_dict(new_state_dict, strict=True)
    # model.load_state_dict(new_state_dict, strict=False) # 如果新的网络结构不一样了,可以将strict改为False   

2.4 模型加载报错

 1. RuntimeError: Attempting to deserialize object on CUDA device 3 but torch.cuda.device_count() is 1

原本在服务器上cuda:3上面训练的,然后在本机(本机只有一个显卡)进行测试,出现这种问题,需要在

state_dict = torch.load(model_path)

改为

state_dict = torch.load(model_path, map_location='cuda:0')

3. 单GPU和多GPU训练

3.1 单GPU训练

# "cuda:1" 表示使用第二块GPU,如果想使用第一块GPU,那么设置为"cuda:0"
device = torch.device("cuda:1")

model = Model()
model = model.to(device)  #将模型放在cuda:1上

3.2 DP模式训练

    # 设置成主GPU
    device = torch.device("cuda:2")

    model = Model()
    #device_ids=[2,3] 指定2是主GPU, 3是次GPU,模型和数据由主gpu分发
    model = torch.nn.DataParallel(model, device_ids=[2,3])
    model = model.to(device)

    data = data.to(device) # cuda:2 会将数据平分到各个显卡上的

    #注意模型保存
    torch.save(model.module.state_dict(), "model.pth")

Ring-Reduce梯度合并 使用DP模式训练保存的模型,然后在自己电脑上运行,需要注意:

DP原理
      DP的操作原理是将一个batchsize的输入数据均分到多个GPU上分别计算(此处注意,batchsize要大于GPU个数才能划分)

      在DP模式中,总共只有一个进程(受到GIL很强限制)。master节点相当于参数服务器,其会向其他卡广播其参数;在梯度反向传播后,各卡将梯度集中到master节点,master节点对搜集来的参数进行平均后更新参数,再将参数统一发送到其他卡上。这种参数更新方式,会导致master节点的计算任务、通讯量很重,从而导致网络阻塞,降低训练速度。

假设读入一个 batch 的数据,其大小为 [30, 5, 2],假设采用三张 GPUs,其运行过程大致为:

将模型放到主 GPU 上,一般为 cuda:0;
把模型同步到 3 张 GPUs 上;
将总输入 batch 的数据平分为 3 份,这里每一份大小为 [10, 5, 2];
依次分别作为每个副本模型的输入;
每个副本模型分别独立进行前向计算,假设为 [4, 5, 2];
从 3 个 GPUs 中收集分别计算后的结果,并按照次序拼接,即 [12, 5, 2],计算 loss;
更新梯度,后向计算.
模型同步 - 数据分发 - 分别前向计算 - loss 计算 - 梯度反传.

也就是当你调用nn.DataParallel的时候,只是在你的input数据是并行的,但是你的output loss却不是这样的,每次都会在第一块GPU相加计算,这就造成了第一块GPU的负载远远大于剩余其他的显卡。

主卡显存占用比其他卡会多很多
 

参考:Pytorch分布式训练/多卡训练(一) —— Data Parallel并行(DP)_hxxjxw的博客-CSDN博客_dataparallel

3.3 DDP模式训练

3.3.1 原理

        DDP模式会开启N个进程,每个进程控制一张显卡上加载模型,这些模型相同(被复制了N份到N个显卡),缓解GIL锁的限制。 训练阶段,每个进程通过Ring-Reduce的方法与其他进程通讯(交换各自的梯度) ,使得每个进程都能得到所有梯度之和,各个进程使用平均后的梯度更新自己的参数,因为每个进程下模型的初始参数、更新梯度是一样的,所以更新后模型的参数也保持一致。

Ring-Reduce梯度合并:各个进程独立计算梯度,每个进程将梯度依次传给下一个进程,之后再把从上一个进程拿到的梯度传给下一个进程,循环n(进程数量)次之后,所有的进程就可以得到全部的梯度。(闭环)

3.3.2 实现

相关概念

  • rank:用于表示进程的编号/序号(在一些结构图中rank指的是软节点,rank可以看成一个计算单位),每一个进程对应了一个rank的进程,整个分布式由许多rank完成。
  • node:物理节点,可以是一台机器也可以是一个容器,节点内部可以有多个GPU。
  • rank与local_rank: rank是指在整个分布式任务中进程的序号;local_rank是指在一个node上进程的相对序号,local_rank在node之间相互独立。(注意:在代码中,会使用local_rank来指定GPU,并且local_rank和实际的gpu编号存在映射关系,比如,指定gpu 4,5进行训练,local_rank仍然是0,1,但前提是要先设置os.environ['CUDA_VISIBLE_DEVICES'] = "4,5")。
  • nnodes、node_rank与nproc_per_node: nnodes是指物理节点数量,node_rank是物理节点的序号;nproc_per_node是指每个物理节点上面进程的数量。
  • word size : 全局(一个分布式任务)中,rank的数量

 为了方便理解举个例子,比如分布式中有三台机器,每台机器起4个进程,每个进程占用1个GPU,如下图所示:

注意:

1、rank与GPU之间没有必然的对应关系,一个rank可以包含多个GPU;一个GPU也可以为多个rank服务(多进程共享GPU)

1. 添加参数和初始化DDP设置

parser = argparse.ArgumentParser()
#使用use_multi_gpu参数控制是否使用多GPU
parser.add_argument('--use_multi_gpu', type = int, default = 0, 
                    help = '')
#设置主GPU,多GPU和单GPU都会使用到
parser.add_argument("--device_id", type=str, default="0")

args = parser.parse_args()
# 如果使用多GPU进行训练
if args.use_multi_gpu == 1:
    LOCAL_RANK = int(os.getenv("LOCAL_RANK", -1))
    RANK = int(os.getenv("RANK", -1))
    WORD_SIZE = int(os.getenv("WORD_SIZE", -1))
    torch.distributed.init_process_group(backend="nccl", init_method='env://') 
    torch.cuda.set_device(LOCAL_RANK)
    args.device = torch.device("cuda", LOCAL_RANK)
else:
    args.device = torch.device("cuda:{}".format(args.device_ids))

2.数据设置

数据集加载并且设置sampler(通过distributed.DistributedSampler可使得每个gpu训练不同的数据,其内部通过seed种子,设置不同的batch数据),sampler作用:分布式训练中切分数据,是为了让分布式中不同的进程拿不一样的数据,原理是根据进程数量进行切分。

from torch.utils.data.distributed import DistributedSampler
if args.use_multi_gpu == 1:
    train_loader = DataLoader(
        trainset,
        batch_size=args.batch_size,
        pin_memory=True,
        num_workers=4,
        sampler=DistributedSampler(trainset))
else:
    train_loader = DataLoader(
        trainset,
        batch_size=args.batch_size,
        shuffle=True,
        pin_memory=True,
        num_workers=4)

3.模型加载(DDP)

model = model.to(args.device)
if args.use_multi_gpu == 1:
    model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[LOCAL_RANK], \
                                                output_device=LOCAL_RANK)

4.模型保存

if args.use_multi_gpu == 0:  
    torch.save(model.state_dict(), model_save_path)
elif args.use_multi_gpu == 1 and LOCAL_RANK == 0: #存储模型时通过local_rank限制单进程写入
    torch.save(model.state_dict(), model_save_path)

5. 单机多卡训练

--nproc_per_node 表示使用几个GPU

选择0,3 两个gpu进行训练,

CUDA_VISIBLE_DEVICES="0,3" python3 -m torch.distributed.launch --nproc_per_node=2 train.py \
--use_multi_gpu

 选择0,1,2,3 四个gpu进行训练

CUDA_VISIBLE_DEVICES="0,1,2,3" python3 -m torch.distributed.launch --nproc_per_node=4 train.py \
--use_multi_gpu

模型多GPU分布式训练---DDP - 知乎

pytorch分布式多机多卡训练,希望从例子解释,以下代码中参数是什么意思? - 知乎

3.4 速度测试

测试三种方式的训练时间。

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值