![](https://img-blog.csdnimg.cn/20190927151124774.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习填坑笔记
文章平均质量分 55
记录学习中遇到的坑
柠檬水(●ˇ∀ˇ●)
一个平平无奇的本科生
展开
-
运行python程序时中途出现killed
记录一下跑深度学习第一次碰到内存不足的情况(以往out of memery都是out的显存)情况是这样的,我跑Hybridnets的源码的时候总是只能训练一轮,在跑验证集的时候就被killed了,我的batchsize和numworkers都改到1了,用监控显存的使用情况发现显存完全够用,确认不是显存的原因,于是直接下载了别人的weight拿来evaluation,结果是也被killed了,问题确实出现在模型评价阶段,使用监控内存占用情况,发现进程被kill之前内存占用不断上升直到溢出。原创 2024-05-04 08:37:31 · 477 阅读 · 0 评论 -
【深度学习填坑笔记2】用nn.Transformer训练时出现loss不收敛现象
本文介绍了用transformer进行序列预测时遇到了训练过程中loss不收敛的问题原创 2023-07-04 02:28:02 · 2752 阅读 · 1 评论 -
【深度学习填坑笔记1】nn.LSTM中设置 batch_first 为 True 后 output.is_continuous()为False
nn.LSTM()中设置参数batch_first=True后,对于一个内存连续的input,经过LSTM后得到的output变得内存不连续。原创 2023-07-01 14:15:41 · 494 阅读 · 0 评论