问题主要是使用multiprocessing在每一轮训练时并行随机产生数据时,job.get()数据超过了torch的暂存内存,参考了以下文章,加入代码或者降低了num_pool都没有解决我的问题
https://blog.csdn.net/u012796629/article/details/105936386/
最终我使用del data,在每轮训练结束时释放掉了该轮使用的数据就可以了
问题主要是使用multiprocessing在每一轮训练时并行随机产生数据时,job.get()数据超过了torch的暂存内存,参考了以下文章,加入代码或者降低了num_pool都没有解决我的问题
https://blog.csdn.net/u012796629/article/details/105936386/
最终我使用del data,在每轮训练结束时释放掉了该轮使用的数据就可以了