可能因为batch_size设置太小。
今天做深度学习作业的时候发现程序是在GPU上跑的,但是运行的非常慢,一个epoch需要运行很长时间,经过检查发现:
显存(第二栏)仅仅用了十分之一不到,所以说明batch_size设置的太小了。当时设置的是20,10
然后当batch_size 设为200,100时,显存利用如下:
这样程序运行的快了很多。
可能因为batch_size设置太小。
今天做深度学习作业的时候发现程序是在GPU上跑的,但是运行的非常慢,一个epoch需要运行很长时间,经过检查发现:
显存(第二栏)仅仅用了十分之一不到,所以说明batch_size设置的太小了。当时设置的是20,10
然后当batch_size 设为200,100时,显存利用如下:
这样程序运行的快了很多。