pytorch自动混合精度训练

 

from torch.cuda.amp import autocast, GradScaler

    # Init Step 1: Create Model
    model, device, start_epoch = create_model(opt)
    if torch.cuda.device_count() > 1:
        model = nn.DataParallel(model)
    model.cuda()

    # Init Step 2: Create Dataset
    dataloader = create_dataset(opt.train_path)

    # Init Step 3: Create Optimizer
    optimizer = torch.optim.Adam(model.parameters(), lr=1e-3)  # Original

    scaler = GradScaler() """创建一个尺度管理器"""

            # Train Step 1: Forward pass, get loss
            with autocast(): """开启混合精度模式,只进行前向传播"""
                loss, outputs = model(P, A, L, targets)
                loss = torch.mean(loss)
            
            # Train Step 2: Backward pass, get gradient
            scaler.scale(loss).backward() """使用尺度管理器进行调整"""

            # Train Step 3: Optimize params
            scaler.step(optimizer)
            scaler.update()

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值