损失函数简介

损失函数简介

本文意在干脆地写明白损失函数的优缺点
损失函数,又称目标函数,或误差函数,用来度量网络实际输出与期望输出之间的不一致程度,
指导网络的参数学习和表示学习。

平方损失函数(Square Loss or L 2 L_2 L2 Loss)

L 2 L_2 L2 Loss : L ( y , f ( x ) ) = ( y − f ( x ) ) 2 L(y,f(x)) = (y - f(x))^2 L(y,f(x))=(yf(x))2
 

绝对值损失函数(Absolute Value Loss or L 1 L_1 L1 Loss)

L 1 L_1 L1 Loss : L ( y , f ( x ) ) = ∣ y − f ( x ) ∣ L(y,f(x)) = |y - f(x)| L(y,f(x))=yf(x)
 

交叉熵损失(Cross-Entropy Loss or Log Loss)

熵:用于度量变量的不确定性程度

H ( X ) = − ∑ i = 1 n p ( x i ) log ⁡ p ( x i ) H(X) = - \sum\limits_{i = 1}^n {p(x_i )\log p(} x_i ) H(X)=i=1np(xi)logp(xi)

交叉熵:主要用于度量两个概率分布间的差异性信息

H ( p , q ) = − ∑ x i p ( x i ) log ⁡ q ( x i ) H(p,q) = - \sum\limits_{x_i} {p(x_i )\log q(} x_i ) H(p,q)=xip(xi)logq(xi)

交叉熵损失:真实概率 ??; 模型预测概率??
二分类问题的交叉熵损失函数:

对于样本(?, ?),?为样本, ?为对应的标签, 在二分类问题中,其取值的集合可能为{0,1}。假设某个样本真实标签为?,该样本的? = 1的概率为?,则该样本的损失函数为:− (????(?) + 1 − ? log(1 − ?))。

Softmax回归 (Softmax Regression)

在这里插入图片描述

  1. 交叉熵和Softmax在多分类问题的结合应用
  2. 交叉熵可用于比较softmax输出和独热编码(one-hot encoding)输出之间的距离

独热编码 (One-hot Encoding)

在分类问题中,独热编码是一种表示目标变量或类别的方法。目标变量可以把字符串标签转换为独热编码向量。一个独热向量在目标类别的索引处填充1,在其他地方填充0。例如,如果目标类别是猫和狗,它们可以分别用 [1,0]和[0,1]表示。对于1000个类别,一个独热编码向量的大小为1000个整数,其中除一个数为1外全为0。
在这里插入图片描述
---------------------------------------------------------以下是更新的经验-------------------------------------------------------------

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值