Pytorch深度学习笔记(02)--损失函数、交叉熵、过拟合与欠拟合

本文详细介绍了交叉熵损失函数,包括信息量、信息熵、KL散度等概念,并探讨了交叉熵在单分类问题中的应用。同时,文章还通俗解释了过拟合和欠拟合的现象及其区别。
摘要由CSDN通过智能技术生成

目录

一、损失函数

二、交叉熵损失函数详解

1、交叉熵

2、信息量

3、信息熵

 4、相对熵(KL散度)

5、交叉熵

6、交叉熵在单分类问题中的应用

7、总结:

三、过拟合和欠拟合通俗解释

1、过拟合

2、欠拟合

3、原因和方法此处不再说明


一、损失函数

损失函数(loss function)是用来估量你模型的预测值与真实值的差异程度,损失函数越小,模型的鲁棒性就越好

常用损失函数小结

  • 平方损失
  • 0-1损失
  • Log损失
  • Hinge损失
  • 指数损失
  • 感知损失

二、交叉熵损失函数详解

一般使用交叉熵作为损失函数时,在模型的输出层总会接一个softmax函数。

交叉熵

主要用于度量两个概率分布间的差异性,要理解交叉熵,需要先了解下面几个概念。

1、信息量

信息量的大

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值