记录pytorch机器学习踩过的大坑 每次开新工程前先看一遍

本文记录了在使用PyTorch进行深度学习时遇到的问题,包括model.to(device)卡住、torch.load(dglgraph)报错、输出参数grad的设置、激活函数的选择等,并提供了相应的解决方案,如使用nn模块、log_softmax及batch_normalization等。
摘要由CSDN通过智能技术生成

model.to(device)卡住

将用conda安装的pytorch卸载,用pip安装解决了

torch.load(dglgraph)报错

dgl版本问题,需要看情况更新

dgl设置

dgl有cpu版本和gpu版本,需要在gpu上运行时需要安装对应cuda版本的dgl

Same Input to Same Trained Model Producing Different Results Each Time

https://discuss.pytorch.org/t/same-input-to-same-trained-model-producing-different-results-each-time/6704/18
其中提到在模型中不要用例如F.softxmax(),用nn.Softmax()代替。但对我的情况而言不好用。

输出参数grad

由于pytorch各种智障设置,比如中间变量grad是none等等,唯一指定输出代码如下:

for name
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值