深度学习代码运行GPU使用率为0的个人解决办法

上图为代码中的部分,起初以为是batch_size的问题,于是默认值往小了改。

结果GPU1 的利用率仍为0%...没有用啊。


询问了LLMs给了如下回答。

import torch

# 检查CUDA是否可用
if torch.cuda.is_available():
    # 设置默认的CUDA设备
    torch.cuda.set_device(1)  # 设置为使用GPU 1
    device = torch.device("cuda:1")
    # 将模型和数据移动到GPU 1
    model.to(device)
    inputs, labels = inputs.to(device), labels.to(device)

于是乎,修改代码。继续运行,GPU利用率仍为0。


怎样让电脑使用独立显卡?参考这篇文章,有了思路。

1.选择让Pycharm使用NVIDIA处理器

2.全局-集成图形

3.运行代码,监测性能。

可以看到,此时的GPU1已经利用起来了,且利用率惊人,达到了99%。(自己的显卡性能不太行,跑这种深度学习模型还是太勉强了)


以上,仅为此次问题的个人解法,仅供参考。

### 如何在 PyCharm 中调试深度学习代码 为了有效调试深度学习代码,在集成开发环境(IDE)如 PyCharm 中设置合适的配置至关重要。当涉及到 CUDA 的可用性检查时,可以利用如下简单的 Python 脚本: ```python import torch.cuda if torch.cuda.is_available(): print("CUDA is available :D") else: print("CUDA isn't available :(") ``` 此脚本用于验证安装环境中是否能够访问 NVIDIA CUDA 工具包[^1]。 对于更复杂的调试需求,比如跟踪变量状态或者理解程序流控制逻辑,PyCharm 提供了一系列强大的工具支持。具体来说,可以通过创建特定的运行/调试配置来进行断点设置、单步执行以及观察表达式的值变化等功能。这些功能有助于开发者更好地理解和优化模型训练过程中的行为表现。 另外值得注意的是,在某些情况下可能还需要调整项目的解释器路径或是添加额外的库依赖项至系统的 `PYTHONPATH` 环境变量中以便顺利加载自定义模块[^3]。 通过上述方法可以在 PyCharm 内部实现对深度学习项目更加高效便捷地管理和维护工作流程。 #### 配置 PyCharm 以启用 GPU 加速的支持 如果目标是在 PyCharm 中充分利用硬件资源加速计算密集型任务,则除了基本的软件栈搭建外,还需确保 IDE 正确识别并连接到本地或远程服务器上的 GPU 设备。这通常涉及正确安装相应的驱动程序和库版本,并确认它们被应用程序所采用。 #### 使用命令行辅助操作 尽管大部分时候可以直接从图形界面完成所需的任务,但在某些场景下借助外部终端窗口配合使用命令行指令也会带来便利之处。例如启动爬虫项目时可能会用到类似下面这样的命令序列: ```bash $ cd /path/to/project/directory $ python3 -m scrapy crawl spider_name ``` 这类实践同样适用于其他类型的 Python 应用程序部署前后的准备工作中[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我是初九

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值