torch gpu使用问题

常规操作使用

os.environ['CUDA_VISIBLE_DEVICES']

控制torch的使用的gpu

检查控制是否成功的方法:

torch.cuda.device_count()

控制失败的原因:

1.import os 需要在 import torch之前

2.import进来的其他文件中不能import torch

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用 PyTorchGPU 上训练深度学习模型的示例代码: ```python import torch # 检查 GPU 是否可用 device = torch.device("cuda" if torch.cuda.is_available() else "cpu") print(device) # 定义模型 class MyModel(torch.nn.Module): def __init__(self): super(MyModel, self).__init__() self.conv1 = torch.nn.Conv2d(3, 32, kernel_size=3, stride=1, padding=1) self.conv2 = torch.nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1) self.fc1 = torch.nn.Linear(64 * 16 * 16, 256) self.fc2 = torch.nn.Linear(256, 10) def forward(self, x): x = torch.nn.functional.relu(self.conv1(x)) x = torch.nn.functional.relu(self.conv2(x)) x = x.view(-1, 64 * 16 * 16) x = torch.nn.functional.relu(self.fc1(x)) x = self.fc2(x) return x # 加载数据 train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=32, shuffle=True) # 初始化模型和优化器 model = MyModel().to(device) optimizer = torch.optim.Adam(model.parameters(), lr=0.001) # 训练模型 for epoch in range(10): for i, (inputs, labels) in enumerate(train_loader): inputs, labels = inputs.to(device), labels.to(device) optimizer.zero_grad() outputs = model(inputs) loss = torch.nn.functional.cross_entropy(outputs, labels) loss.backward() optimizer.step() if i % 100 == 0: print("Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}".format(epoch+1, 10, i+1, len(train_loader), loss.item())) # 保存模型 torch.save(model.state_dict(), "my_model.pt") ``` 其中,`device` 变量检查 GPU 是否可用,`model.to(device)` 将模型移动到 GPU 上,`inputs.to(device)` 和 `labels.to(device)` 将数据移动到 GPU 上,从而实现在 GPU 上训练模型。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值