softmax分类器_Softmax 理解

本文探讨了Softmax函数在多类别分类任务中的应用,特别是在Pytorch训练中,交叉熵损失函数已内置处理。同时,文章还讨论了Softmax的数值稳定性和Log Softmax的变形,深入理解其在实际操作中的优势。
摘要由CSDN通过智能技术生成
Softmax深入理解[译] - AIUAI​www.aiuai.cn
e57574de7def42e43416658fe5841ddd.png

Pytorch的交叉熵nn.CrossEntropyLoss在训练阶段,里面是内置了softmax操作的,因此只需要喂入原始的数据结果即可,不需要在之前再添加softmax层。

Softmax 是非线性函数,主要用于 multi-class classification 任务中分类器的输出端.

ce20146e6eac8e09d75984f34e4b374c.png

f2f1dbfbe26ecb4171120544bb94998b.png
import numpy as np

def softmax(x):
    exp_x = np.exp(x) # ps 下面结果中的e+01 是科学计数法  e+01 =
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值