CrossEntropy用于语义分割

CrossEntropy损失函数在PyTorch中用于语义分割任务,输入为未激活的张量,内部会进行softmax和-log操作。参数reduce和size_average(已弃用,应使用reduction)控制损失的聚合方式,reduce=True时,若size_average=True则输出平均损失,否则为总和。reduce=False则返回每个像素的loss。默认reduction为'mean',输出标量。
摘要由CSDN通过智能技术生成

https://www.jianshu.com/p/a6131515ee1d

 

补充:

    loss = nn.CrossEntropyLoss()

注意:

  1. input参数为未激活的张量,函数中会为该张量执行softmax->-log。所以使用该loss时,可以不用预先激活。
  2. 其中两个参数比较重要,reduce和size_average,默认都为True。reduce=True,此时输出的loss为单个数值,这个前提下,当size_average=True,输出的loss为所有像素的损失的均值,反之为所有像素loss之和。reduce=False,此时输出形式为[b,h,w],其中包含各个像素的loss。
  3. 该函数中用到的log为ln,底数为e。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值