Softmax,交叉熵损失函数,经验风险,正则化

大家好,今天来介绍一下细致的概念部分。

Softmax是一种数学函数,通常用于将一组任意实数转换为表示概率分布的实数。比如说,一组实数24.5,164,0.18我们就可以把他们转化成0.13,0.87和0.

交叉熵(Cross Entropy)主要用于度量两个概率分布间的差异性信息。 H(p, q) = -Σ(p(x) * log(q(x))) 

交叉熵损失函数(Cross Entropy Loss)是机器学习中常用的损失函数,它能够用来衡量两个分布之间的距离。交叉熵损失函数的意义是,它能够帮助机器学习模型从训练样本中估计出最接近目标分布的预测概率密度函数。

经验风险(Empirical Risk): 经验风险是指模型在训练数据上的平均损失或误差。

正则化作用 正则化技术广泛应用在机器学习和深度学习算法中,其本质作用是防止过拟合、提高模型泛化能力。

拟合是一个数理科学术语,形象的说,拟合就是把平面上一系列的点,用一条光滑的曲线连接起来。因为这条曲线有无数种可能,从而有各种拟合方法。

过拟合是指学习时选择的模型所包含的参数过多,以至于出现这一模型对已知的数据预测的很好,但对未知数据预测得很差的现象。如果过拟合怎么办?这时候我们就要提到一个概念——权重衰减。权重衰减(Weight Decay)作用是抑制模型的过拟合,以此来提高模型的泛化性。

欠拟合模型描述能力太弱,以至于不能很好地学习到数据中的规律。

过拟合和欠拟合之间就是一个模型的承载力。

过拟合和欠拟合都是我们不希望得到的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值