调试神经网络过程中遇到的问题

在这里简单记录一下自己在调试过程中遇到bug:
1、可能会遇到不知名的错误,大概就是139电脑内存不足的问题,但是我网络输入比较下,按理说此问题不存在的,后来换到服务器就好了
2、另一个就是cuda的问题,需要用的变量都都应该转移到cuda上面,并且与网络是同步的,神经网络中定义的参数也应该单独的转移到GPU上面,因为net.to(device)好像并不会将网络中定义的变量转移到上面。
3、最让头疼的是这个问题:RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.
此时问题出现的情况有多种,一定要仔细检查下自己的网络结构的逻辑,出现的根本原因是:在第一次计算完损失之后,第一个生成的计算图并没有完全的消失(或者说生成的计算变量),导致在第二次backward的时候找到第一次的变量进行梯度计算,但是第一次的计算图已经不在完整了。
4、最后,对于required_grad=True的叶子tensor不能使用in-place操作,此操作直接在原来的内存上改变它的值。
对于求解梯度需要用的tensor也不能用in-place,因为求解梯度的过程中,用的tensor是不应该改变的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值