pycharm使用gpu训练报错RuntimeError: CUDA error: invalid device ordinal CUDA kernel errors might be asynchr

检测有几个gpu  然后使用 import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"指定gpu即可

device = torch.device('cuda:1' if torch.cuda.is_available() else 'cpu')
print('3',device)

这段代码的作用是设置环境变量 `CUDA_VISIBLE_DEVICES`,指定程序在运行时只使用特定的 GPU(在这里是编号为 1 的 GPU)。这种设置通常用于在多 GPU 环境下控制程序使用哪个 GPU 进行计算,特别是在需要避免 GPU 资源冲突或者指定 GPU 资源的情况下。

### 代码解释与用途

```python
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"
```

- **`import os`**:导入 Python 的 os 模块,提供了与操作系统交互的功能。
- **`os.environ["CUDA_VISIBLE_DEVICES"] = "1"`**:设置环境变量 `CUDA_VISIBLE_DEVICES` 为 "1",指定只使用编号为 1 的 GPU。GPU 编号从 0 开始计数。

### 使用场景

1. **多 GPU 环境下的资源管理**:
   - 在多 GPU 环境中,指定某个 GPU 运行程序,以避免与其他程序冲突或资源竞争。例如,假设机器有 4 个 GPU(编号从 0 到 3),这段代码会使得程序仅在 GPU 1 上运行。

2. **调试与开发**:
   - 在调试或开发阶段,开发者可能只想使用特定的 GPU,以便更好地控制和监控资源的使用。

3. **避免 GPU 资源冲突**:
   - 如果多个用户或程序在同一台服务器上运行,指定 GPU 可以避免多个程序争用同一个 GPU 资源,导致计算性能下降或程序崩溃。

### 示例应用

假设你有一个深度学习训练脚本 `train.py`,在多 GPU 服务器上运行时,你希望只使用 GPU 1 进行训练,可以在脚本的开头添加上述代码:

```python
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "1"

import torch
import torch.nn as nn
import torch.optim as optim

# 其他训练代码
```

### 注意事项

- **GPU 编号从 0 开始**:如果机器有多个 GPU,它们的编号是从 0 开始的。比如,编号为 1 表示第二个 GPU。
- **设置前要检查 GPU 可用性**:确保编号为 1 的 GPU 是可用且未被其他重要任务占用的,可以使用 `nvidia-smi` 命令查看 GPU 使用情况。
- **环境变量设置的时机**:这段代码应该在导入任何使用 GPU 的库(如 PyTorch、TensorFlow)之前执行,以确保这些库在初始化时只看到指定的 GPU。

### 总结

通过设置 `CUDA_VISIBLE_DEVICES` 环境变量,您可以在多 GPU 环境中灵活地管理 GPU 资源,指定程序使用哪个 GPU,从而优化资源利用率和程序性能。这种方法在深度学习模型训练、资源调度和多用户环境中非常实用。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ai玩家hly

年少且带锋芒,擅行侠仗义之事

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值