GPU有限,如何提高batch size

那么从:

https://github.com/mathildor/DeepLab-v3/blob/master/g3doc/faq.md

deeplabv3+也是谷歌团队,tensorflow就是他们的产品。可以看到提高batch size 的方法。

batchsize不仅对于batch normalization至关重要,而且梯度下降也需要一定的batchsize,比如batchsize=8

所以可以通过:

  1. 减少图片的面积,比如将图片crop到原来的一般大小。或者513*513->321*321,要注意2的倍数问题。
  2. 减小网络复杂度,将参数变少,比如换backbone。
  3. 并行使用更多GPU,这是普遍的用法,也是必须的,因为通常要8个甚至16个GPU一同工作。
  4. 注意使用:
         
          session_config.gpu_options.allow_growth = True
          with tf.train.MonitoredTrainingSession(
                master=FLAGS.master,
                is_chief=(FLAGS.task == 0),
                config=session_config,
                scaffold=scaffold,
                checkpoint_dir=FLAGS.train_logdir,
                summary_dir=FLAGS.train_logdir,
                log_step_count_steps=FLAGS.log_steps,
                save_summaries_steps=FLAGS.save_summaries_secs,
                save_checkpoint_secs=FLAGS.save_interval_secs,
                hooks=[stop_hook]) as sess:
              while not sess.should_stop():
                sess.run([train_tensor])

    如果没有gpu_options.allow_growth我的一块gpu能跑batch size=3,如果加了这个设置,能跑batch size=4。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值