Softmax分类器

  • Softmax 函数用于多分类,他将多个神经元的输出的值映射到(0,1)区间内的一个值,,并且映射的所有值相加为1,这些值可以理解为输出的概率,输出概率较大的一般作为预测的值
    在这里插入图片描述

  • 计算公式
    在这里插入图片描述
    分子:fyi 表示第i个类别指数值
    分母求和fj 所有元素的指数和

    softmax作用过程:假如对于神经元的输出值3,1,-3通过softmax函数,映射成为(0,1)之间范围的值,而这些值的累和为1,
    P(3∣score)=e3/(e3+e1+e-3)=0.88
    P(1∣score)=e1/(e3+e1+e-3)=0.12
    P(-3∣score)=e-3/(e3+e1+e-3)=0

计算softmax和数值稳定性
import numpy as np
def softmax(x):
    exps=np.exp(x)
    return exps/np.sum(exps)
调用
softmax([1,2,3])
输出结果
array([0.09003057, 0.24472847, 0.66524096])

如果我们使用较大的数字(或较大的负数)运行此函数,则会遇到问题,如下所示

调用
softmax([1000,2000,3000])
输出结果
array([nan, nan, nan])

避免此问题的方法,在分子和分母中加入一个常数C,C常取值为logC=max(jfj)
​​最后得到的式子为
在这里插入图片描述

def stablesoftmax(x):
    shiftx = x - np.max(x)
    exps = np.exp(shiftx)
    return exps / np.sum(exps)
stablesoftmax([1000, 2000, 3000])

输出
array([0., 0., 1.])

Softmax函数的导数

输入多个x,输出多个y,那么对于任意y_i对x_j求导,i,j都属于K类别大小集合

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值