为何pytorch nn.KLDivLoss()损失计算为负数?
参考文献:https://www.zhihu.com/question/384982085先来看一下KL散度的定义这里是要用分布Q为标签(原始分布),分布P作为预测值(预测分布)在pytorch中,nn.KLDivLoss()的计算公式如下:上图y为标签,x为预测值,则pytorch应该以如下代码使用lossfunc = nn.KLDivLoss()loss = lossfunc(预测值, 标签值)但是,由于计算公式中,预测值x的输入要是对数形式,而标签值y则不需要,所以如果我们要对预
原创
2022-04-19 16:55:23 ·
5846 阅读 ·
0 评论