神经网络(二):Softmax函数与多元逻辑回归

本文深入探讨了在神经网络中重要的Softmax函数,解释了其在多元逻辑回归中的应用,以及如何通过softmax转换逻辑回归的损失函数。文章还提到了softmax函数与sigmoid函数的相似性,并展示了如何在图模型中表示逻辑回归,便于理解和应用于神经网络。
摘要由CSDN通过智能技术生成

一、 Softmax函数与多元逻辑回归

为了之后更深入地讨论神经网络,本节将介绍在这个领域里很重要的softmax函数,它常被用来定义神经网络的损失函数(针对分类问题)。
根据机器学习的理论,二元逻辑回归的模型公式可以写为如下的形式:

(1) P ( y = 1 ) = 1 1 + e − X W T + b P(y = 1) = \frac{1}{1 + e^{-XW^T + b}} \tag{1} P(y=1)=1+eXWT+b1(1)

在公式(1)中,对分子、分母同时乘以,得到公式(2),其中, W 0 = W 1 − W W_0 = W_1 - W W0=W1W b 0 = b 1 − b b_0 = b_1 - b b0=b1b

(2) P ( y = 1 ) = e X W 1 T + b 1 e X W 0 T + b 0 + e X W 1 T + b 1 P ( y = 0 ) = e X W 0 T + b 0 e X W 0 T + b 0 + e X W 1 T + b 1 P(y = 1) = \frac{e^{XW_1^T + b_1}}{e^{XW_0^T + b_0} + e^{XW_1^T + b_1}}\\ P(y = 0) = \frac{e^{XW_0^T + b_0}}{e^{XW_0^T + b_0} + e^{XW_1^T + b_1}}\tag{2} P(y=1)=eXW0T+b0+eXW1T+b1eXW1T+b1

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值