远程服务器搭建GPU版的Pytorch框架

远程服务器搭建GPU版的Pytorch

  • .连接linux系统的工具

putty- 简单易用,占用空间少;
xshell-收费,可以破解;
MobaXterm - 有文件操作列表,可以像windows一样查看每个目录的文件,可以更清楚每个文件存放的位置。功能性较强,可以尝试。

  • 文件传输工具-本地电脑向服务器传输文件或者服务器传输文件到本地电脑:

FileZilla-只需输入远程服务器的ip地址和端口即可,功能比较齐全。
xftp

  • .查看远程服务器安装系统的版本和显卡的型号:

查看远程服务器安装的系统版本:
cat /etc/issue

查看显卡的型号:
lspci | grep -i nvidia
在这里插入图片描述
红色箭头指的就是显卡的型号,可以进入这个网站进行查询自己显卡的型号,然后下载对应的显卡驱动
http://pci-ids.ucw.cz/mods/PC/10de?action=help?help=pci
在这里插入图片描述
查询之后可以看到自己的显卡类型,红色框标记出来的地方就是显卡的型号
在这里插入图片描述

驱动安装


```bash
wget https://cn.download.nvidia.cn/XFree86/Linux-x86_64/515.65.01/NVIDIA-Linux-x86_64-515.65.01.run
chmod a+x NVIDIA-Linux-x86_64-515.65.01.run
./NVIDIA-Linux-x86_64-515.65.01.run

如果出现nvidia-installer: Error opening log file ‘/var/log/nvidia-installer.log’ for writing (Permission denied); disabling logging. 这个代码错误的话,一般就是需要用在root用户下进行安装,只需要将用命令

sudo ./NVIDIA-Linux-x86_64-515.65.01.run

  • 使用命令进行查看 nvidia-smi
    在这里插入图片描述
  • 对这个表格的解读,以虚线为界线,第一部分的第一行就是
  • nvidia-smi命令的版本
  • 显卡驱动的版本
  • cuda的版本
  • 后面第二部分和第三部分是显存和显卡的使用率

安装conda

wget https://repo.anaconda.com/archive/Anaconda3-2020.07-Linux-x86_64.sh
chmod a+x Anaconda3-2020.07-Linux-x86_64.sh
./Anaconda3-2020.07-Linux-x86_64.sh

现在安装完成了,然后使用命令加载一下环境变量。

source ~/.bashrc

至此,环境安装成功。

结果显示

  • 查看是否有cuda、cuda的版本、显卡的个数和显卡的名称
    在这里插入图片描述
  • 后续,可以自己搭建深度学习的环境来学习。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
你可以按照以下步骤来搭建一个GPU版本PyTorch Docker镜像: 1. 首先,确保你的机器上已经安装了NVIDIA驱动程序。可以使用以下命令来检查驱动程序的安装情况: ``` nvidia-smi ``` 2. 安装Docker和NVIDIA Docker运行时。根据你的操作系统,可以按照官方文档的说明进行安装。 3. 创建一个新的Dockerfile,可以使用以下命令在你的项目目录中创建一个名为Dockerfile的文件: ``` touch Dockerfile ``` 4. 使用任何文本编辑器打开Dockerfile,并将以下内容添加到文件中: ```dockerfile # 指定基础镜像 FROM pytorch/pytorch:latest # 安装CUDA工具包 RUN apt-get update && apt-get install -y --no-install-recommends \ cuda-toolkit-11-0 \ && rm -rf /var/lib/apt/lists/* # 设置环境变量 ENV PATH /usr/local/nvidia/bin:${PATH} ENV LD_LIBRARY_PATH /usr/local/nvidia/lib:/usr/local/nvidia/lib64:${LD_LIBRARY_PATH} # 安装PyTorch和Torchvision RUN pip install torch==1.9.0+cu111 torchvision==0.10.0+cu111 -f https://download.pytorch.org/whl/torch_stable.html # 设置工作目录 WORKDIR /app # 复制项目文件到镜像中 COPY . /app # 安装项目依赖 RUN pip install -r requirements.txt # 设置启动命令 CMD ["python", "main.py"] ``` 请注意,上面的Dockerfile使用了pytorch/pytorch:latest作为基础镜像,并安装了CUDA工具包以支持GPU计算。你可以根据你的需求选择不同的基础镜像和CUDA版本。 5. 在同一个目录中创建一个名为requirements.txt的文件,并列出你项目所需的所有Python依赖包。 6. 确保你的项目文件(包括Dockerfile和requirements.txt)都在同一个目录中。 7. 打开终端,导航到包含Dockerfile和requirements.txt的目录,并执行以下命令来构建Docker镜像: ``` docker build -t my_pytorch_image . ``` 这将使用Dockerfile中的指令构建一个名为my_pytorch_image的镜像。确保在命令末尾有一个点,表示Dockerfile所在的当前目录。 8. 构建完成后,你可以使用以下命令来运行一个容器并使用GPU: ``` docker run --gpus all -it my_pytorch_image ``` 这将创建一个新的容器并进入交互模式,你可以在其中运行你的PyTorch代码,并利用GPU进行加速。 希望这些步骤能帮助你搭建一个GPU版本PyTorch Docker镜像!如果有任何问题,请随时提问。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值