官网方法,conda环境安装tensorflow,可使用多个GPU

文章介绍了如何使用conda创建支持CPU和GPU的TensorFlow环境。对于GPU,它强调了CUDA和cudnn的版本要求,并指出从TensorFlow2.0开始需要CUDA10.0以上。TensorFlow2.4引入的tf.distribute.MirroredStrategy用于单机多GPU的同步训练,使得模型变量在GPU间镜像同步。
摘要由CSDN通过智能技术生成

仅支持CPU的方案:

conda create -n tf tensorflow
conda activate tf

创建一个名为‘tf’的conda环境,自动安装cpu的tensorflow


可以使用gpu的方案:

conda create -n tf-gpu tensorflow-gpu
conda activate tf-gpu

使用conda安装 GPU TensorFlow 会安装依赖库:CUDA(cuda toolkit)以及cudnn。(按理说conda会自动安装好兼容的版本)

对于 Windows 和 Linux 系统,CUDA 10.0 以后的版本才支持 TensorFlow 2.0 以后的版本。


无需更改任何代码,TensorFlow 代码以及 tf.keras 模型就可以在单个 GPU 上透明运行。

注:使用 tf.config.list_physical_devices('GPU') 可以确认 TensorFlow 使用的是 GPU。

在一台或多台机器上,要顺利地在多个 GPU 上运行,最简单的方法是使用分布策略


在 TensorFlow 2.4 版本中,可以使用 tf.distribute.MirroredStrategy 来在一台机器的多个 GPU 上进行同步分布式训练。该策略会为每个 GPU 设备创建一个副本。模型中的每个变量都会在所有副本之间进行镜像。这些变量将共同形成一个名为 MirroredVariable 的单个概念变量。这些变量会通过应用相同的更新来保持同步。1

以下是一个使用 tf.distribute.MirroredStrategy 的示例代码:

mirrored_strategy = tf.distribute.MirroredStrategy()
with mirrored_strategy.scope():
    model = create_model()
model.fit(train_dataset, epochs=10, steps_per_epoch=100)

请注意,tf.distribute.MirroredStrategy 只能在一台机器上的多个 GPU 上进行同步分布式训练。如果您想要在多台机器上进行分布式训练,您可以使用其他分布式策略,例如 tf.distribute.experimental.MultiWorkerMirroredStrategy 或 tf.distribute.experimental.TPUStrategy。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

LRJ-jonas

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值