apex您所在的地区目前不提供此物品_apex混合精度加速

Pytorch

简介:

Nvidia提供了一个混合精度工具apex,可以加速pytorch的训练效率(空间和时间上)。号称可以这不降低模型性能的情况下,将训练速度提升2~4倍,训练显存开销减少为原来的一半。开源地址如下:https://github.com/NVIDIA/apex,论文在此。

目前该工具的版本为0.1版本,工具中主要有四个功能:ampparalleloptimizersnormalization

  1. 其中,第一个工具amp用于混合精度计算。pytorch中默认使用的是float32进行存储和数学计算,即单精度。而以float16作为计算类型的训练则称为半精度。半精度相比单精度而言,计算速度更快,空间开销更小,但是存在精度不够导致溢出的问题,单精度的运算稳定性则更好。因此,apex通过混合精度的方式来在保证训练精度的情况下减少空间开销,提高训练效率。
  2. parallel中的DistributedDataParallel是对pytorch官方分布式的包装复现,对NVIDIA的NCCL通信库进行了更好地优化。parallel中的SyncBatchNorm则是用来解决GPU间BN进行同步信息的作用(由于目前的框架上基本BN层的均值和方差都是通过singel GPU上的batch来计算的,无疑上缩小了mini-batch的大小。一般情况下,每个GPU上的batch的大小都是足够大的。但是,当受显存限制导致每个GPU上mini-batch较小或者特殊需求下,就需要BN层之间进行通信同步。GPU间大量的通信会导致训练速度的急剧下降,因此可通过该方法进行解决),同时还可以提升某些收敛精度。
  3. optimizers中目前仅提供了Adam的复现版本(讲道理还是SGD用的多,毕竟都怕Adam的过拟合啊┑( ̄Д  ̄)┍)。
  4. normalization则是BN层的复现版本,使用起来可能有坑。

安装巨坑之路:

在安装apex的时候,本以为依据官方的Quick Start分分钟完成,然鹅遇坑无数。
~~~~~~~~~~~~~~~~ (:з」∠) ~~~~~~~~~~~~~~~~

  • 为了获取最佳性能以及全部的功能体验,选择支持CUDA和C++扩展的方式进行安装:git clone https://github.com/NVIDIA/apexcd apexpip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./
  • 为了方便,本文采用了conda的方式,其中python=3.6,cuda=9.0,pytorch=1.0。注意⚠️
  • 在安装前,必须保证conda安装的pytorch的cuda版本要与机器上安装的cuda版本保持一致。同时,必须要gcc<6.0。
  • 安装时遇到了个大问题,折腾了半天:ERROR: compiler_compat/ld: cannot find -lpthread -lc,找了半天发现好像是Anaconda的问题,可以在apex文件夹下的setup.py文件中的ext_modules中添加如下即可:extra_link_args=['-L/usr/lib/x86_64-linux-gnu/']
  • 耐心等待片刻,便可以享用apex啦。

三行快速使用:

  • 通过一下三行快速使用混合精度计算:
    # Added after model and optimizer construction
    model, optimizer = amp.initialize(model, optimizer, flags...)
    ...
    # loss.backward() changed to:
    with amp.scale_loss(loss, optimizer) as scaled_loss:
        scaled_loss.backward()
    
  • 在使用amp.initialize前需要将model放在GPU上,通过.cuda()或者to(device)的方式。并且,在此之前不能调用任何数据并行函数。
  • amp.initialize中最关键的参数为opt_level,一共有四种设置方式:O1O2O3O4。其中O0O3分别是FP32和FP16的纯精度方式。这里引用官方的说法介绍O1O2
  • O1("conservative mixed precision")patches Torch functions to cast inputs according to a whitelist-blacklist model. FP16-friendly (Tensor Core) ops like gemms and convolutions run in FP16, while ops that benefit from FP32, like batchnorm and softmax, run in FP32. Also, dynamic loss scaling is used by default.
  • O2("fast mixed precision")casts the model to FP16, keeps batchnorms in FP32, maintains master weights in FP32, and implements dynamic loss scaling by default. (Unlike --opt-level O1, --opt-level O2 does not patch Torch functions.)
  • 整个函数的参数虽然很多:
    def initialize(
        models,
        optimizers=None,
        enabled=True,
        opt_level=None,
        cast_model_type=None,
        patch_torch_functions=None,
        keep_batchnorm_fp32=None,
        master_weights=None,
        loss_scale=None,
        cast_model_outputs=None,
        num_losses=1,
        verbosity=1,
        ):
    
  • 但是,其实基本设置opt_level即可,有些条件下会使其他参数无效。该参数的具体效果如下:

    b3e1348e5284579a855647a2dc9e539b.png
  • 当然,使用的时候你的GPU必须支持FP16计算方式,不然也没法加速。

实验对比效果:

  • 模型 : se_resnext101_32x4d
58c8efd1917354ffb1f379af925f1d24.png
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值