tensorflow 多线程操作(转载)

参考:https://github.com/tensorflow/tensorflow/issues/8220
注意:此处是调用了两个GPU

tensorflow 2.x

import os
import multiprocessing


class Predictor(multiprocessing.Process):
    def __init__(self, input_queue, output_queue, gpu_id):
        multiprocessing.Process.__init__(self)
        self.input_queue = input_queue
        self.output_queue = output_queue
        self.gpu_id = gpu_id

    def run(self):
        #set GPU id before importing tensorflow!!!!!!!!!!!!!
        os.environ["CUDA_VISIBLE_DEVICES"] = "{}".format(self.gpu_id)
        #import tensorflow here
        import tensorflow as tf
        sess = tf.Session()
        print('Using device #%s' % self.gpu_id)
        a = tf.placeholder(tf.int16, name='a')
        y = tf.identity(a, name='y')
        while True:
            input = self.input_queue.get()
            if input is None:
                self.input_queue.task_done()
                print("Exiting Process %d" % self.gpu_id)
                break
            else:
                res = sess.run(y, feed_dict={a: input})
                self.input_queue.task_done()
                self.output_queue.put(res)
        sess.close()
        return

if __name__ == "__main__":
    jobs = [i for i in range(10000)]
    num_gpus = 2
    p_list = []
    input_queue = multiprocessing.JoinableQueue()
    output_queue = multiprocessing.Queue()
    for i in range(num_gpus):
        p = Predictor(input_queue, output_queue, i)
        p_list.append(p)

    for p in p_list:
        p.start()

    for job in jobs:
        input_queue.put(job)

    for i in range(num_gpus):
        input_queue.put(None)

    for i in range(len(jobs)):
        print(output_queue.get())

    input_queue.join()
    
    for p in p_list:
        p.join()

tensorflow 1.15

import os
import multiprocessing


class Predictor(multiprocessing.Process):
    def __init__(self, input_queue, output_queue, gpu_id):
        multiprocessing.Process.__init__(self)
        self.input_queue = input_queue
        self.output_queue = output_queue
        self.gpu_id = gpu_id

    def run(self):
        #set GPU id before importing tensorflow!!!!!!!!!!!!!
        os.environ["CUDA_VISIBLE_DEVICES"] = "{}".format(self.gpu_id)
        #import tensorflow here
        import tensorflow.compat.v1 as tf
        tf.disable_eager_execution()
        sess = tf.Session()
        print('Using device #%s' % self.gpu_id)
        a = tf.placeholder(tf.int16, name='a')
        y = tf.identity(a, name='y')
        while True:
            input = self.input_queue.get()
            if input is None:
                self.input_queue.task_done()
                print("Exiting Process %d" % self.gpu_id)
                break
            else:
                res = sess.run(y, feed_dict={a: input})
                self.input_queue.task_done()
                self.output_queue.put(res)
        sess.close()
        return

if __name__ == "__main__":
    jobs = [i for i in range(10000)]
    num_gpus = 2
    p_list = []
    input_queue = multiprocessing.JoinableQueue()
    output_queue = multiprocessing.Queue()
    for i in range(num_gpus):
        p = Predictor(input_queue, output_queue, i)
        p_list.append(p)

    for p in p_list:
        p.start()

    for job in jobs:
        input_queue.put(job)

    for i in range(num_gpus):
        input_queue.put(None)

    for i in range(len(jobs)):
        print(output_queue.get())

    input_queue.join()
    
    for p in p_list:
        p.join()
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
TensorFlow支持多线程训练,可以通过使用tf.data API和tf.distribute.Strategy来实现。 首先,使用tf.data API加载和预处理数据。该API提供了高效的数据管道,可以在训练过程中异步地预取和处理数据。你可以使用`tf.data.Dataset.from_generator`或者`tf.data.Dataset.from_tensor_slices`方法创建数据集对象。 接下来,选择合适的分布式策略(tf.distribute.Strategy)。TensorFlow提供了多种分布式训练策略,包括MirroredStrategy、MultiWorkerMirroredStrategy和ParameterServerStrategy等。这些策略可以帮助你在多个设备或多个机器上进行并行训练。 一旦你选择了合适的分布式策略,你可以在模型训练过程中使用`strategy.run`方法来执行模型的前向传播和反向传播操作。这样可以确保在分布式环境下,每个设备或机器都能进行相应的计算。 在训练过程中,你可以使用TensorFlow多线程支持来加速数据预处理和模型训练。你可以使用`tf.data.Dataset.prefetch`方法来预取数据,并使用`tf.data.Dataset.map`方法来进行并行的数据处理操作。 总结来说,使用TensorFlow进行多线程训练的步骤包括: 1. 使用`tf.data.Dataset`加载和预处理数据; 2. 选择合适的分布式策略; 3. 使用分布式策略的`strategy.run`方法执行模型训练; 4. 使用多线程支持加速数据预处理和模型训练。 希望这个回答对你有帮助!如果你还有其他问题,请继续提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值