Softmax算法 逻辑回归的扩展

本文介绍了Softmax回归模型,它是Logistic回归在多分类问题上的扩展,尤其适用于如MNIST手写数字识别等任务。Softmax回归通过估计每个类别的概率来解决多分类问题,其代价函数与Logistic回归类似但更适用于多于两个类别的情况。文章还讨论了Softmax回归的参数冗余、权重衰减、与Logistic回归的关系以及何时选择Softmax回归或多个二元分类器。
摘要由CSDN通过智能技术生成

分享一下我老师大神的人工智能教程!零基础,通俗易懂!http://blog.csdn.net/jiangjunshow

也欢迎大家转载本篇文章。分享知识,造福人民,实现我们中华民族伟大复兴!

               
 

Softmax回归

Contents

  [hide]

简介

在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签 \textstyle y 可以取两个以上的值。 Softmax回归模型对于诸如MNIST手写数字分类等问题是很有用的,该问题的目的是辨识10个不同的单个数字。Softmax回归是有监督的,不过后面也会介绍它与深度学习/无监督学习方法的结合。(译者注: MNIST 是一个手写数字识别库,由NYU 的Yann LeCun 等人维护。http://yann.lecun.com/exdb/mnist/ )


回想一下在 logistic 回归中,我们的训练集由 \textstyle m 个已标记的样本构成:\{ (x^{(1)}, y^{(1)}), \ldots, (x^{(m)}, y^{(m)}) \} ,其中输入特征x^{(i)} \in \Re^{n+1}。(我们对符号的约定如下:特征向量 \textstyle x 的维度为 \textstyle n+1,其中 \textstyle x_0 = 1 对应截距项 。) 由于 logistic 回归是针对二分类问题的,因此类标记 y^{(i)} \in \{0,1\}。假设函数(hypothesis function) 如下:

\begin{align}h_\theta(x) = \frac{1}{1+\exp(-\theta^Tx)},\end{align}


我们将训练模型参数 \textstyle \theta,使其能够最小化代价函数 :

\begin{align}J(\theta) = -\frac{1}{m} \left[ \sum_{i=1}^m y^{(i)} \log h_\theta(x^{(i)}) + (1-y^{(i)}) \log (1-h_\theta(x^{(i)})) \right]\end{align}


在 softmax回归中,我们解决的是多分类问题(相对于 logistic 回归解决的二分类问题),类标 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值