Loss Function 整理

usepackage{txfonts}

机器学习常用Loss Function 整理

1. Squared Loss – Linear Regression

J(θ)=12mi=1m(hθ(x(i))y(i))2

2. 绝对值损失

J(θ)=12mi=1m|hθ(x(i))y(i)|

3. log loss/cross entropy

J(θ)=1m[i=1m(y(i)loghθ(x(i))+(1y(i))log(1hθ(x(i))))]

4. Softmax loss function

J(θ)=1mi=1mj=1k1{y(i)=j} logeθTjx(i)kl=1eθTlx(i)=1mi=1mj=1k1{y(i)=j}log p(y(i)=j|x(i);θ)

如果将下式中的 kj=1 替换成 1j=0 ,即可得到 log loss

5. Hinge loss – SVM

二类分类问题:

J(w⃗ )=[1mi=1mmax(0,1y(i)(w⃗ x(i)+b))]+λw⃗ 2

或者可以写成:
J(w⃗ )=1mi=1mζ(i)+λw⃗ 2    (1)subject to y(i)((w⃗ x(i)+b)1ζ(i) and ζ(i)0, for all i

多类分类问题

J(w)=1mi=1mjy(i)max(0,1+wTjx(i)wTy(i)x(i))+λw2

或者可以写成:
J(w)=1mi=1mζ(i)+λw2    (2)subject to    (i)((wTy(i)x(i)wTjx(i))ejiζ(i) i=1,...,m, j=1,...,k, y(i){1,...,k}

where
eji={01if y(i)=jif y(i)j

6. L2 Hinge loss – SVM

将式(1), (2)改写成

J(w⃗ )=1mi=1mζ(i)2+λw⃗ 2subject to y(i)((w⃗ x(i)+b)1ζ(i) and ζ(i)0, for all i

以及
J(w)=1mi=1mζ(i)2+λw2subject to    (i)((wTy(i)x(i)wTjx(i))ejiζ(i) i=1,...,m, j=1,...,k, y(i){1,...,k}

7. Exponential loss – Boosting

J(θ)=i=1mey(i)hθ(x(i))+λθ

8. K-L Divergence – Generative Model

离散:

KL(pq)=xp(x)logp(x)(q(x))

连续:
KL(pq)=p(x)logp(x)(q(x))dx

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值