nn.BCELoss总结

本章内容

  • 版本
    • pytorch 1.0

nn.BCELoss

  • 用于计算预测值和真实值之间的二元交叉熵损失(Binary Cross Entropy)

  • 主要用于多标记任务(一个样本对应多个类别)

  • 调用时输入参数

    • Input: ( N , ∗ ) (N, *) (N,), ∗ * 表示可有任意个数的额外维度。(已经过Sigmoid
    • Target: ( N , ∗ ) (N, *) (N,), 与Input的维度相同。
  • 数学公式
    l ( x , y ) = L = { l 1 , … , l N } T , l n = − w n [ y n ⋅ log ⁡ x n + ( 1 − y n ) ⋅ log ⁡ ( 1 − x n ) ] l(x,y) = L = \{l_1,\dots,l_N\}^T, l_n=-w_n[y_n \cdot \log{x_n} + (1-y_n)\cdot \log(1-x_n)] l(x,y)=L={l1,,lN}T,ln=wn[ynlogxn+(1yn)log(1xn)]
    其中, N N N表示batch大小。

  • 实例

torch.manual_seed(0)
a = torch.rand(3,5)
b = torch.rand(3,5)
loss = nn.BCELoss()
print(loss(a,b)) # tensor(0.7726)
def com(x,y):
    return -(y * torch.log(x) + (1-y)*torch.log(1-x))
num = 0
for i in range(a.size(0)):
    for j in range(a.size(1)):
        num += com(a[i,j], b[i,j])
num/=(a.size(0) * a.size(1))
print(num) # tensor(0.7726)

nn.BCEWithLogitsLoss

  • 依次执行Sigmoidnn.BCELoss两个操作

参考:

  1. pytorch文档
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值