Docker 在Tesla K80 和 RTX 2080配置CUDA,Pytorch过程,cuda runtime error (11)解决方案

本文记录了在Tesla K80和RTX 2080显卡上使用Docker配置CUDA和Pytorch 1.0.1的过程。在Tesla K80上,通过anibali/pytorch:cuda-9.0镜像并更新到1.0.1,使用nvidia-docker支持GPU运行。在RTX 2080上遇到CUDA runtime error (11),最终通过切换到CUDA-10.0和特定安装命令解决问题。
摘要由CSDN通过智能技术生成

记录Docker 在Tesla K80 和 RTX 2080配置CUDA,Pytorch过程,RuntimeError: cuda runtime error 11 : invalid argument at /pytorch/aten/src/THC/THCGeneral.cpp:663解决方案

第一次使用docker,需要跑一个深度学习程序,要求pytorch==1.0.1,因此开始在两台服务器不同显卡上配置docker

Tesla K80

先pull镜像,镜像在https://github.com/anibali/docker-pytorch有说明,直接执行以下命令

docker pull anibali/pytorch:cuda-9.0

然后使用该镜像运行容器,先执行以下命令查看已有镜像

docker images

发现镜像已经被拉入本地:
已被拉入本地的镜像image接下来运行一个container来使用这个镜像

nvidia-docker run -it --name myname -v /home/username:/home/username anibali/pytorch:cuda-9.0 bash

这里使用nivdia-docker来运行,这样才能支持GPU运行。 -it 表示与容器进行交互界面, --name 设置容器名字, -v 建立映射路径,否则无法进入本地路径, anibali/pytorch:cuda-9.0 是镜像名称,bash表示用bash命令进行交互

进入后,由于这个镜像配置的是pytorch 1.0.0ÿ

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值