机器学习--分类算法--softmax回归算法理论

目录

一 softmax回归算法理论概述

1 Softmax回归是Logistc回归的一般化

2 Softmax函数(本质就是将k维度实数向量压缩成另一个k维实数向量,其中每个维度取值范围是(0,1))

二 softmax回归算法原理

1 模型前提

1)对于数据集而言,目标属性y具有k个类别(y=1,2,...,k)

2)目标属性的分布律

3)引入置信函数

2 模型建立


一 softmax回归算法理论概述

1 Softmax回归是Logistc回归的一般化

适用于k分类问题,针对每个类别都有一个参数向量\theta从而组成一个参数矩阵\theta _{k*n}

2 Softmax函数(本质就是将k维度实数向量压缩成另一个k维实数向量,其中每个维度取值范围是(0,1))

logit函数的变形

logit:log\frac{p}{1-p}=\theta^{T} x\rightarrow log\frac{\sum_{i=1}^{k-1}p_{i}}{p_{k}}=\sum_{i=1}^{k-1}\theta_{i}^{T}x

\Rightarrow log\frac{1-p_{k}}{p_{k}}=\sum_{i=1}^{k-1}\theta_{i}^{T}x

softmax函数

\Rightarrow log\frac{1-p_{k}}{p_{k}}=\sum_{l=1}^{k-1}\theta_{l}^{T}x\Rightarrow \frac{1-p_{k}}{p_{k}}=e^{\sum_{l=1}^{k-1}\theta_{l}^{T}x}

\Rightarrow 1-p_{k}=p_{k}e^{\sum_{l=1}^{k-1}\theta_{l}^{T}x}\Rightarrow p_{k}(1+e^{\sum_{l=1}^{k-1}\theta_{l}^{T}x})=1

\Rightarrow p_{k}=\frac{1}{1+e^{\sum_{l=1}^{k-1}\theta_{l}^{T}x}}

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值