Pytorch-均方差损失函数和交叉熵损失函数

均方差损失函数mse_loss()与交叉熵损失函数cross_entropy()

1.均方差损失函数mse_loss()

均方差损失函数是预测数据和原始数据对应点误差的平方和的均值。

\[MSE=\frac{1}{N}( y^`−y)^2 \]

N为样本个数,y'为预测数值,y为正确数值。

代码实例:

import torch
import torch.nn.functional as F

if __name__ == '__main__':
    data=torch.tensor([1.0,3.0])
    loss=F.mse_loss(torch.tensor([1.0,1.0]),data)
    print(loss)
    # [(1-1)^2+(3-1)^2]/2  = 2

    data1=torch.tensor([2.0,3.0])
    loss=F.mse_loss(torch.tensor([1.0,1.0]),data1)
    print(loss)
    # [(2-1)^2+(3-1)^2]/2  = 2.5

输出结果

tensor(2.)
tensor(2.5000)

2.交叉熵损失函数cross_entropy():相比mse_loss()梯度更大了,优化更快了

先引入熵的概念,熵是衡量分布是否稳定的一个概念,衡量一个分布的信息熵的计算公式如下:log默认以2为底

\[Entropy(p)=-\sum_{i=1}^{n} p(i)log p(i) \]

衡量一个分布的信息熵的实例化代码如下:

import torch

if __name__ == '__main__':
    # 交叉熵一般用于分类问题,如果下面四个数据代表四个类别的比例,
    # 四个类别的比例都相同,这里的熵很高,就不容易判断。
    data=torch.tensor([0.25,0.25,0.25,0.25])
    # 输出熵
    print('data的熵为',-(data*torch.log2(data)).sum())
    # 熵越高,越不容易确定

    # 第四个类别的比例为0.97,这里的熵也很低,就比较容易确定。
    data1=torch.tensor([0.01,0.01,0.01,0.97])
    # 输出熵
    print('data1的熵为',-(data1*torch.log2(data1)).sum())
    # 熵越低,越容易确定

输出结果

data的熵为 tensor(2.)
data1的熵为 tensor(0.2419)

衡量两个分布的交叉熵的计算公式如下:

\[Entropy(p,q)=-\sum_{i=1}^{n} p(i)log q(i)=Entropy(p)+D_{kl}(p|q) \]

交叉熵(p,q)=信息熵(p)+相对熵(p|q),相对熵又称为kl散度,散度越小,p分布和q分布就越接近 p(i)代表的是正确值 q(i)代表的是预测值

交叉熵损失函数经常出现在分类问题中,因为分类问题需要计算各类别的概率,所以交叉熵损失函数经常与sigmoid()和softmax()激活函数搭配使用。

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

gy-7

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值