深度学习|1|softmax回归

softmax回归是logistic回归的多分类形式,它通过线性变换和softmax函数将输出转换为概率分布。文章介绍了softmax回归的模型结构,指出其与线性回归的区别,并通过鸢尾花分类的例子说明其适用性。同时,文章讨论了交叉熵损失函数在衡量预测概率与真实标签间差异的重要性,展示其在模型训练中的应用。
摘要由CSDN通过智能技术生成

系列文章目录


前言

softmax 回归(softmax regression)其实是 logistic 回归的一般形式,logistic 回归用于二分类,而 softmax 回归用于多分类


softmax回归是一个多输出的单层神经网络

神经网络:所有输出层的神经元,与所有输入层的神经元,线性相连。没有中间层

对任意输出神经元 y j y_j yj,都有 y j = ∑ w i , j x i + b j y_j = \sum w_{i, j}x_i + b{j} yj=wi,jxi+bj

进而,softmax回归模型可写为:

y = W x + b \pmb{y}= \pmb{Wx+b} y=Wx+b

假定 x ∈ R n × 1 \pmb{x}\in\mathbb{R}^{n\times 1} xRn×1, y ∈ R m × 1 \pmb{y}\in\mathbb{R}^{m\times 1} yRm×1,

T h e n Then Then

W ∈ R m × n , b ∈ R m × 1 \pmb{W}\in\mathbb{R}^{m\times n}, \pmb{b}\in\mathbb{R}^{m\times 1} WRm×n,bRm×1


Softmax回归的输出不是一个实值,而是一个在0和1之间的概率

softmax回归与线性回归的本质区别在于:输出意义不同

以鸢尾花为例: y 1 , y 2 , y 3 y_1, y_2, y_3 y1,y2,y3分别表示 x \pmb{x} x属于山鸢尾、变色鸢尾还是维吉尼亚鸢尾的概率

既然是概率,则 y 1 , y 2 , y 3 y_1, y_2, y_3 y1,y2,y3的取值范围:

1. 应当在1的范围之内
2. 和应当为1

用线性回归的方式对其进行处理,并不能保证 y 1 , y 2 , y 3 y_1, y_2, y_3 y1,y2,y3的取值范围满足上述条件。

需要对输出进行softmax处理。

y i = e y i ∑ j = 1 3 e y j y_i = \frac{e^{y_i}}{\sum_{j=1}^{3} e^{y_j}} yi=j=1

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

入门两年的练习生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值