WSL安装TensorFlow(with CUDA12.4)

下载并打开WSL

参考Windows下使用WSL设置启动WSL并安装Ubuntu版本分发
打开WSL

wsl -d Ubuntu

更新软件包

sudo apt-get update
sudo apt-get upgrade -y

安装配置CUDA 12.4

  • 下载安装CUDA 12.4
    根据CUDA Toolkit 12.4NVIDIA官方安装参考
    按顺序输入以下命令即可
    wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
    
    sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
    
    wget https://developer.download.nvidia.com/compute/cuda/12.4.1/local_installers/cuda-repo-wsl-ubuntu-12-4-local_12.4.1-1_amd64.deb
    
    sudo dpkg -i cuda-repo-wsl-ubuntu-12-4-local_12.4.1-1_amd64.deb
    
    sudo cp /var/cuda-repo-wsl-ubuntu-12-4-local/cuda-*-keyring.gpg /usr/share/keyrings/
    
    sudo apt-get update
    
    sudo apt-get -y install cuda-toolkit-12-4
    
    rm cuda-repo-wsl-ubuntu-12-4-local_12.4.1-1_amd64.deb
    
  • 配置CUDA环境变量
    • 打开用户配置文件
      vim ~/.bashrc
      
    • 点击键盘I键进入编辑模式
    • 将光标移动到最下面添加如下内容
      export CUDA_HOME
### 如何在 Windows 11 上使用 CUDA 12.4 安装和配置 TensorRT #### 系统环境准备 为了确保能够在 Windows 11 上成功安装并配置 TensorRT,需确认系统已经具备如下条件: - 已经安装了支持的 NVIDIA GPU 和对应的驱动程序。 - 使用的是 Windows 11 操作系统,并且已安装 WSL2 及其上的 Ubuntu 22.04 发行版。 对于 CUDA 版本的要求,在此环境中应确保通过 `nvidia-smi` 命令检测到的 CUDA 版本为 12.4[^1]。 #### 配置过程概述 由于目标是在 Windows 11 中利用 WSL2 的 Ubuntu 来运行 TensorRT 应用程序,因此重点在于设置好 Linux 子系统的开发环境。具体操作包括但不限于将必要的头文件路径加入到编译器能够访问的位置。例如,可以考虑将 `\TensorRT-8.4.3.1\include` 下的所有 `.h` 文件复制至类似于 `C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.7\include` 这样的位置以便于集成开发工具链识别这些库文件[^2];不过需要注意这里提到的是针对特定版本的操作方式,当涉及到不同版本如 v12.4 时,则应当调整为目标 CUDA 版本相应的 include 路径下。 考虑到实际使用的 CUDA12.4 版本而不是上述例子中的较低版本,建议直接下载适用于当前 CUDA 版本的 TensorRT 并按照官方指导完成部署工作。通常情况下,最新版本的 TensorRT 将会提供更好的性能以及更广泛的硬件兼容性支持。 #### 实际操作指南 以下是基于以上描述的具体实践步骤摘要(注意:这里的说明假设读者熟悉基本命令行操作): 1. **验证现有环境** - 打开 PowerShell 或者 CMD 终端窗口执行 `nvidia-smi` 查看显卡状态及所用 CUDA 版本是否确实为 12.42. **获取 TensorRT** - 访问 [NVIDIA 开发者网站](https://developer.nvidia.com/) 寻找适合 CUDA 12.4 的 TensorRT 版本进行下载。 3. **解压与放置资源** - 解压缩获得的 TensorRT 包并将其中的 header 文件夹内的内容移动到对应 CUDA 版本下的 include 目录内,比如 `C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.4\include`. 4. **更新环境变量** - 修改 PATH 环境变量以包含新添加的 lib 文件所在位置以及其他任何必需项。 5. **测试安装成果** - 编写简单的 C++ 测试案例来检验 TensorRT 是否能被正确调用。 ```cpp #include "NvInfer.h" int main(){ nvinfer1::ILogger* logger; std::cout << "If you see this message, the installation was successful." << std::endl; } ```
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值