强制释放指定显卡显存

for i in $(sudo lsof /dev/nvidia0 | grep python  | awk '{print $2}' | sort -u); do kill -9 $i; done

nvidia 0代表0卡

### 如何查看显卡使用率及对应进程名 要查看显卡的使用情况以及对应的进程名称,可以通过 `nvidia-smi` 工具实现。以下是具体方法: #### 使用 `nvidia-smi` 查看 GPU 和进程信息 `nvidia-smi` 是 NVIDIA 提供的一款强大的命令行工具,能够展示 GPU 的实时状态,包括但不限于温度、功耗、显存使用率和正在使用的进程列表[^2]。 通过执行以下命令可以获取详细的 GPU 使用情况及其关联的进程: ```bash nvidia-smi pmon -c 1 ``` 此命令会一次性打印出当前所有的 GPU 使用情况及相关联的进程信息,其中包含了进程 ID (PID) 和进程名称等字段[^1]。 如果只需要简单地观察 GPU 占用与进程的关系,则可以直接运行基础版本的命令: ```bash nvidia-smi ``` 在默认输出中,“Processes” 部分会列出所有正在使用 GPU 资源的进程,并附带其 PID 和进程名称(Process Name)。这些数据可以帮助管理员快速定位哪些应用程序占用了 GPU 资源。 对于某些特殊场景下发现有高负载却没有明显进程的情况时,需注意可能是由于程序被挂起而非真正结束所引起的问题。例如,按下了 Ctrl+Z 键组合仅暂停而不是停止应用实例,这会造成资源持续被占用却看不到有效记录的现象[^3]。此时应采用强制清理手段来释放资源,比如利用下面这条命令批量杀死指定用户的全部后台作业: ```bash pgrep -u username | sudo xargs kill -9 ``` 另外,在不同操作系统环境下调用方式可能略有差异。于 Windows 平台而言,先转至安装路径下的 NVSMI 文件夹后再启动相应可执行文件即可完成相同操作[^4]: ```cmd cd "C:\Program Files\NVIDIA Corporation\NVSMI" nvidia-smi.exe ``` 以上就是关于如何借助 nvidia-smi 来监视图形处理器的工作负荷状况连同涉及的具体处理单元详情介绍。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值