Zero volatile GPU-Util but high GPU Memory Usage,tensorflow训练时候显存占满,但是执行效率很低,GPU使用率很低。

版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/u012743859/article/details/79446302

Tensorflow 调用GPU训练的时候经常遇见 ,显存占据的很大,但是使用率很低,也就是Zero volatile GPU-Util but high GPU Memory Usage。

网上找到这样一个答案,意思就是自己run 的很多东西是没有用的,但是会占据大量显存。

后来找到问题了,

这两个语句,是针对所有的data_x data_y 操作的,而这两个部分又比较大(大概几百兆)所以处理起来才比较慢。之后GPU 利用率大概到了60% 左右。大量的CPU 操作,占据了大量的时间。

展开阅读全文

没有更多推荐了,返回首页