Softmax分类器

softmax函数
f i ( z ) = e z i ∑ j = 1 K e z j f_{i}(z)=\frac{e^{z_{i}}}{\sum_{j=1}^{K}e^{z_{j}}} fi(z)=j=1Kezjezi

  • softmax的输入值是一个向量,向量中为任意实数的评分值;输出一个向量,其中每个元素值在0到1之间,且所有元素之和为1(归一化的分类概率)。

损失函数:交叉熵损失(cross entropy loss)
L i = − l o g ( f i ( z ) ) L_{i}=-log(f_{i}(z)) Li=log(fi(z))
在使用softmax分类器的分类任务中,对于其中样本 x i x_{i} xi为第 k k k类的概率为:
p ( Y = k ∣ x i ) = e s k ∑ j = 1 K e s j , 其 中 s = f ( x i ; w ) p(Y=k| x_{i})=\frac{e^{s_{k}}}{\sum_{j=1}^{K}e^{s_{j}}} ,其中 s=f(x_{i};w) p(Y=kxi)=j=1Kesjesk,s=f(xi;w)
损失 L k = − l o g ( p ( ( Y = k ∣ x i ) ) L_{k}=-log(p((Y=k| x_{i})) Lk=log(p((Y=kxi))
因此损失函数为:
L k = − l o g ( e s k ∑ j = 1 K e s j ) L_{k}=-log(\frac{e^{s_{k}}}{\sum_{j=1}^{K}e^{s_{j}}}) Lk=log(j=1Kesjesk)

Softmax实例:
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值