tensorflow和pytorch比较

pyorch的坑

RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation: [torch.FloatTensor [2, 3, 13, 13, 85]], which is output 0 of AsStridedBackward, is at version 6; expected version 3 instead. Hint: the backtrace further above shows the operation that failed to compute its gradient. The variable in question was changed in there or anywhere later. Good luck!
他跟我说good luck????????????????????????????????
反正我找了很多解释方法,比如inplace、+=都改了没B用,看了源码,就是一个简单的element 乘,我很无语。并且神奇的是,在A电脑可以跑,在B电脑不能跑,一个没GPU一个有GPU

把版本更新以后就可以了

tensorflow的坑

tensorflow底层代码不会错,但是写起来很麻烦,一个batchnormalization都要自己写,可读性又是极差。用keras的话,涉及到多gpu时候我感觉里写的很乱,比如并行多gpu
wtih tf.device(cpu0):
model
parallel_model=parallel_model(model)
有些电脑就会报错,但是你改成:
wtih tf.device(cpu0):
model.predict()
就不会报错,我贼蒙蔽。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值