Tensorflow分布式MirroredStrategy简介

       最近由于一直在使用tensorflow多卡训练,遇到一些问题,于是查看了一些关于estimator关于多卡分布式策略的代码,主要了解了关于MirroredStrategy的相关内容。tf.estimator.Estimator初始化时可以在config中train_distribute设置相应的分布式策略,今天主要记录train_distributtf.contrib.distribute.MirroredStrategy(num_gpus=num_gpus)镜像策略。Estimator中分布式训练由_train_model_distributed(self, input_fn, hooks, saving_listeners)函数执行。

       MirroredStrategy主要位于mirrored_strategy文件中,mirrorstrategy对于变量的处理详见create_variable函数中。对于第一个设备,采用原来的名字。对于大于0的设备,在原来变量名后加上/replica_加上设备号,以区别原始变量,并将原来的变量值复制给这些对应的复制变量。


       对于输入数据集,主要通过调用distribute_dataset实现,每个设备各自取一份数据,所以是数据并行。

 

       调用model_fn时,主要通过mirroredstrategy中的_call_for_each_tower实现。每个设备各起一个线程,并行执行model_fn,直至所有model_fn都完成。


       最终将每个model_fn得到的loss合并并求平均值,然后分发到每个训练操作中,进行对应卡的变量的梯度更新。

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值