Pytorch踩坑笔记

前言

本文是对目前在Pytorch的使用过程中踩的一些坑做总结备忘,以便日后翻阅查询。
注:编者水平有限,如有谬误,欢迎指正。若要转载,请注明出处,谢谢。
联系方式:
邮箱:yue_zhan@yahoo.com
QQ:1156356625


nn.model

  • 在模型最后一层,不要轻易添加Softmax层,因为pytorch自带的大部分分类相关loss,如Crossentropy交叉熵损失函数,会自带softmax的处理。
def cross_entropy(input, target, weight=None, size_average=None, ignore_index=-100,
                  reduce=None, reduction='mean'):
    if size_average is not None or reduce is not None:
        reduction = _Reduction.legacy_get_string(size_average, reduce)
    return nll_loss(log_softmax(input, 1), target, weight, None, ignore_index, None, reduction)

上图为crossentropy的源码,如果此时在模型末端也加了一层softmax,网络较深情况下梯度会很快消散。而网络较浅情况下,尽管收敛较慢且结果不大好,但模型仍然是可以训练的,这种情况更难察觉(别问我怎么知道的)。

  • 当需要复用某个backbone来搭建网络时,如下
self.body &
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值