Softmax && Cross-entropy Error

softmax 函数,被称为 归一化指数函数,是sigmoid函数的推广。

它将向量等比压缩到[0, 1]之间,所有元素和为1.

图解:

 

Example:

softmax([1, 2, 3, 4, 1, 2, 3]) = [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]

Code:

import numpy as np

def softmax(x):
    c = np.max(x, axis = x.ndim - 1, keepdims = True)
    y = np.sum(np.exp(x - c), axis = x.ndim - 1, keepdims = True)
    x = np.exp(x - c) / y
    return x

softmax and sigmoid 异同:

 

 

Cross-entropy Error(CE):交叉熵误差

假设误差是二值分布:

其中yi表示真实概率分布,只有yk=1,而yj=0jky^i表示预测概率分布,设它的输入为θi,则

 

 CE求导:

 

Assigment:

Softmax:

 softmax求导:

 

softmax数值不稳定性、解决方法、证明:

 Loss function 梯度:

 

转载于:https://www.cnblogs.com/ylHe/p/9281117.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值