Pythorch torch.nn 与 torch.nn.functional的区别

我们知道在torch.nntorch.nn.functional中有许多类似的激活函数或者损失函数,例如:

torch.nn.ReLUtorch.nn.functional.relu

torch.nn.MSElosstorch.nn.functional.mse_loss

  • 那么他们有什么区别呢?

1.在定义函数层(继承nn.Module)时,init函数中应该用torch.nn,例如torch.nn.ReLU,torch.nn.Dropout2d,而forward中应该用torch.nn.functionl,例如torch.nn.functional.relu,不过请注意,init里面定义的是标准的网络层。只有torch.nn定义的才会进行训练。torch.nn.functional定义的需要自己手动设置参数。所以通常,激活函数或者卷积之类的都用torch.nn定义。
2.torch.nn是类,必须要先在init中实例化,然后在forward中使用,而torch.nn.functional可以直接在forward中使用。

参考

1.How to choose between torch.nn.Functional and torch.nn module?
2.What’s the difference between torch.nn.functional and torch.nn?
3.What is the difference between torch.nn and torch.nn.functional?
4.Beginner: Should ReLU/sigmoid be called in the init method?
5.PyTorch 中,nn 与 nn.functional 有什么区别?

  • 5
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值