在PyCharm中使用本地gpu运行程序

1 选择添加本地解释器

2 出现如下界面(不需要配置virtualenv environment)

选完_conda.exe后,点击load environments,才会出现下面的选项

3 使用存在的环境,选择已安装的环境

 点击ok后,程序界面右下角显示的环境和上一步选择的环境一致,即为配置成功。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PyCharm使用GPU有两种方法: 1. 使用PyTorch等深度学习框架的GPU版本 如果你使用的是PyTorch等深度学习框架的GPU版本,那么可以直接在代码使用GPU进行计算,PyTorch会自动将计算放到GPU上执行。例如,如果你的代码有以下语句: ```python import torch # 创建一个Tensor x = torch.Tensor([1, 2, 3]) # 将Tensor放到GPU上 x = x.cuda() ``` 那么PyTorch会自动将`x`放到GPU上进行计算。 2. 在PyCharm设置GPU 如果你想使用PyCharm自带的运行环境来执行代码,并且想使用GPU进行计算,那么需要在PyCharm进行一些设置。 首先,你需要安装CUDA和cuDNN,这两个软件包可以从NVIDIA官网上下载。安装完成后,你需要添加以下环境变量: ``` CUDA_HOME=<CUDA安装路径> LD_LIBRARY_PATH=<CUDA安装路径>/lib64 ``` 其,`<CUDA安装路径>`是你安装CUDA的路径。 然后,你需要在PyCharm打开以下设置: ``` Preferences > Build, Execution, Deployment > Console > Python Console ``` 在这个设置界面,你可以选择使用哪个Python解释器来运行代码。如果你已经安装了GPU版本的TensorFlow或PyTorch,那么可以选择对应的解释器。然后,在Console下面的Environment variables添加以下环境变量: ``` LD_LIBRARY_PATH=<CUDA安装路径>/lib64 ``` 这样,PyCharm就可以使用GPU进行计算了。在代码,你需要手动将Tensor放到GPU上: ```python import torch # 创建一个Tensor x = torch.Tensor([1, 2, 3]) # 将Tensor放到GPU上 device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") x = x.to(device) ``` 这个代码会检查是否有可用的GPU,如果有的话就将Tensor放到第一个GPU上。如果没有可用的GPU,就使用CPU进行计算。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值