在Linux服务器上训练模型时,每当训练数据时程序就会自动停掉,报段错误(核心已转储),经过搜索有人说是程序越界了,stack太小了,于是我用ulimit -a
查看了Linux中stack的大小,然后又使用ulimit -c 10240
修改stack的大小,还是不行。
然后我就想,既然他说我的数组过大,那我就设置小一点,结果也还是不行。
既然如此至少得找到是在哪里出了问题,然后我利用print语句,发现了出错的位置:
但我还是没想通为啥这里会出错,直到我打印了state,next_state以后我发现,它们已经经过torch.FloatTensor(state).to(device)
的处理了(这些数据其实是从一个buffer中采样得到的,在sample返回前就已经处理过了),所以我直接这样:
,然后就没问题了。
至于到底是什么原理,由于我才疏学浅还不大了解,但应该确实跟栈有关系。(递归学的时候就很头大)
当然,这只是一种解决方法啦,因人而异。