3. 损失函数和优化介绍

本文深入探讨了损失函数的概念,包括多类别SVM损失、正则化和Softmax分类器的损失函数,并详细解析了交叉熵损失的目的。此外,还介绍了优化方法,包括数值计算梯度下降和公式计算梯度下降,强调了数值梯度下降在验证公式梯度正确性方面的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

损失函数和优化介绍

1. Loss function

A loss function tells how good our current model classifier is.

1.1 Multiclass SVM loss

L i = ∑ j ≠ y i m a x ( 0 , s j − s y i + Δ ) L_i = \sum_{j \neq y_i}max(0, s_j - s_{y_i} + \Delta) Li=j=yimax(0,sjsyi+Δ)
notation: s = f ( x i , W ) , Δ s = f(x_i, W), \Delta s=f(xi,W),Δ is safety margin

1.2 Regularization

L ( W ) = 1 N ∑ i = 1 N L i ( f ( x i , W ) , y i ) ⏟ D a t a   l o s s + λ R ( W ) ⏟ R e g u l a r i z a t i o n : M o d e l   s h o u l d   b e " s i m p l e " L(W) = \underbrace{\frac{1}{N} \sum^N_{i = 1}L_i(f(x_i, W), y_i)}_{Data\:loss} + \underbrace{\lambda R(W)}_{Regularization: Model \: should \: be "simple"} L(W)=Dataloss N1i=1NLi(f(xi,W),yi)+Regularization:Modelshouldbe"simple" λR(W)
在这里插入图片描述

1.3 Softmax Classifier

在这里插入图片描述
 这里计算的是Softmax的损失函数,其实和交叉熵损失是一个东西。交叉熵损失也就是下面这个公式,其目的是为了保持模型预测的概率与ground truth是同分布的。交叉熵公式如下:
J = − ∑ i = 1 K y i l o g ( P i ) J = -\sum^K_{i=1}y_i log(P_i) J=i=1Kyilog(Pi)

2. Optimization

 这里介绍了数值计算梯度下降和公式计算梯度下降。虽然数值计算梯度下降计算很慢,但是这个可以用来做一个参考,来检测我们写的公式计算梯度是否正确。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值