[NVIDIA] Ububtu 获取 CUDA_ARCH

参考 这篇文章

CUDA_ARCH="-gencode arch=compute_61,code=sm_61"

方法一

如果安装了 CUDA Samples

cd /usr/local/cuda/samples/1_Utilities/deviceQuery
sudo make
./deviceQuery

显示

./deviceQuery Starting...

 CUDA Device Query (Runtime API) version (CUDART static linking)

Detected 1 CUDA Capable device(s)

Device 0: "Tesla P4"
  CUDA Driver Version / Runtime Version          9.0 / 9.0
  CUDA Capability Major/Minor version number:    6.1
  Total amount of global memory:                 7606 MBytes (7975862272 bytes)
  (20) Multiprocessors, (128) CUDA Cores/MP:     2560 CUDA Cores
  GPU Max Clock rate:                            1114 MHz (1.11 GHz)
  Memory Clock rate:                             3003 Mhz
  Memory Bus Width:                              256-bit
  L2 Cache Size:                                 2097152 bytes
  Maximum Texture Dimension Size (x,y,z)         1D=(131072), 2D=(131072, 65536), 3D=(16384, 16384, 16384)
  Maximum Layered 1D Texture Size, (num) layers  1D=(32768), 2048 layers
  Maximum Layered 2D Texture Size, (num) layers  2D=(32768, 32768), 2048 layers
  Total amount of constant memory:               65536 bytes
  Total amount of shared memory per block:       49152 bytes
  Total number of registers available per block: 65536
  Warp size:                                     32
  Maximum number of threads per multiprocessor:  2048
  Maximum number of threads per block:           1024
  Max dimension size of a thread block (x,y,z): (1024, 1024, 64)
  Max dimension size of a grid size    (x,y,z): (2147483647, 65535, 65535)
  Maximum memory pitch:                          2147483647 bytes
  Texture alignment:                             512 bytes
  Concurrent copy and kernel execution:          Yes with 2 copy engine(s)
  Run time limit on kernels:                     No
  Integrated GPU sharing Host Memory:            No
  Support host page-locked memory mapping:       Yes
  Alignment requirement for Surfaces:            Yes
  Device has ECC support:                        Enabled
  Device supports Unified Addressing (UVA):      Yes
  Supports Cooperative Kernel Launch:            Yes
  Supports MultiDevice Co-op Kernel Launch:      Yes
  Device PCI Domain ID / Bus ID / location ID:   0 / 0 / 8
  Compute Mode:
     < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 9.0, CUDA Runtime Version = 9.0, NumDevs = 1
Result = PASS

如果没有安装 CUDA Samples

git clone https://github.com/NVIDIA-AI-IOT/deepstream_tlt_apps.git
cd deepstream_tlt_apps/TRT-OSS/x86
nvcc deviceQuery.cpp -o deviceQuery
./deviceQuery

方法二

首先查看显卡型号

nvidia-smi

根据型号,在 官网 查询

Ubuntu系统更新CUDA的步骤一般包括下载CUDA Toolkit新版本的安装包、卸载当前版本的CUDA(可选步骤,如果选择更新而非全新安装则不需要)、安装新版本的CUDA Toolkit等几个主要步骤。下面是简要介绍如何更新CUDA: 1. **备份重要数据**:在进行任何更新之前,建议备份好系统和重要数据,以防万一更新过程中出现意外。 2. **卸载当前版本的CUDA**:为了确保更新过程中不会有版本冲突,可以选择卸载当前安装的CUDA版本。可以使用`cuda-uninstall`脚本或直接删除CUDA相关的文件夹。但请注意,这一步骤在某些情况下可以省略,特别是当CUDA是通过包管理器安装时。 3. **下载新版本的CUDA**:访问NVIDIA官方网站下载所需的CUDA版本的安装包。选择与你的系统架构(如x86_64)和Ubuntu版本(如16.04、18.04、20.04等)相对应的安装包。 4. **安装新版本的CUDA**:下载安装包后,使用`sudo dpkg -i`命令安装下载的`.deb`包。例如: ```bash sudo dpkg -i cuda-repo-<distro>_<version>_<arch>.deb ``` 接着,更新包列表并安装CUDA: ```bash sudo apt-key add /var/cuda-repo-<version>/7fa2af80.pub sudo apt-get update sudo apt-get install cuda ``` 这里`<distro>`、`<version>`和`<arch>`需要替换为相应的发行版名称、CUDA版本号和架构。 5. **重启系统**:更新完成后,重启系统以确保所有的改变被正确加载。 6. **验证安装**:使用`nvcc --version`命令检查CUDA编译器版本或者通过运行一些CUDA样例程序来验证CUDA环境是否正常工作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值