【总结】深度学习中的LOSS

【总结】深度学习中的损失函数

1. 铰链损失/合页损失 Hinge Loss

SVM常用损失函数

  • 函数表达式
    L ( y , f ( x ) ) = m a x ( 0 , 1 − y ⋅ f ( x ) ) L(y,f(x)) = max(0,1-y·f(x)) L(y,f(x))=max(0,1yf(x))

  • 函数图像
    在这里插入图片描述
    通过上图可知,当 y ⋅ f ( x ) > 1 y·f(x)>1 yf(x)>1时, l o s s = 0 loss=0 loss=0;否则, l o s s = 1 − y ⋅ f ( x ) loss=1-y·f(x) loss=1yf(x)。也就是说,只有被正确分类的时候,loss才为0。

2. 交叉熵 Cross-entropy Loss

(1)用于二分类

表示样本abel与预测值为正类概率的关系

  • 函数表达式
    C = − 1 N ∑ i [ y i l n ( p i ) +
深度学习loss的大小通常用来衡量模型的训练效果和优化目标的达成程度。loss的大小取决于具体的损失函数和训练数据。不同的损失函数有不同的计算方式和目标,因此loss的大小也会有所不同。 引用\[1\]提到了一些常见的损失函数,如Focal Loss、IOU Loss、Softmax Loss等。这些损失函数在目标检测、分类和分割等任务被广泛使用。其,Focal Loss主要用于解决目标检测正负样本比例失衡的问题,IOU Loss用于衡量预测框与真实框之间的重叠程度,Softmax Loss用于分类任务。 由于不同的损失函数具有不同的计算方式和目标,因此它们的loss大小也会有所不同。一般来说,loss的大小越小表示模型的拟合程度越好,即模型对训练数据的预测结果与真实标签更接近。但是,具体的loss大小还需要结合具体的任务和数据集来进行分析和解释。 总之,深度学习loss的大小是衡量模型训练效果和优化目标达成程度的重要指标,不同的损失函数和任务会导致不同的loss大小。 #### 引用[.reference_title] - *1* *2* *3* *5* [深度学习基础loss和目标检测loss总结](https://blog.csdn.net/qq_36523492/article/details/112789110)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *4* [深度学习——知识点总结3(损失函数Loss)](https://blog.csdn.net/baobei0112/article/details/95060370)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值