机器学习—深度学习之基础理论算法原理推导逻辑回归(Logistic Regression)算法原理推导

1. 概述

逻辑回归(Logistic Regression)是一个经典的二分类算法,虽然名称中有“回归”,但并非回归算法,常常用于二分类。 因其简单、可并行化、可解释强深受工业界喜爱。

在机器学习实际解决分类问题时,可优先考虑逻辑回归算法。逻辑回归的决策边界可以是非线性的。同时也可用其变形softmax完成多分类任务。

逻辑回归与线性回归的区别:逻辑回归将线性回归模型加权求和的结果经过Logistic函数(通常为Sigmoid函数)。在逻辑回归中通常将加权求和的结果即XW称为logit,这样命名源于logit函数的定义:logit(p)=log(\frac {p}{1-p}),是Sigmoid函数的逆函数。

2. 算法推导

2.1 Sigmoid函数

https://ss0.bdstatic.com/70cFuHSh_Q1YnxGkpoWK1HF6hhy/it/u=1470553882,3498110764&fm=11&gp=0.jpg

Sigmoid函数公式为:

其中定义域x \in (+\infty, -\infty),值域f(x)(0,1)。可以看出Sigmoid函数将任意大小的实数输入映射到了(0,1)之间的值,而(0,1)之间的数刚好可当作分类概率值看待。

2.2 预测函数

与线性回归类似,假设样本数据集X为m*n的矩阵,Y为m*1的向量,W为n*1的向量。

因此,预测函数为:

2.3 似然函数

在逻辑回归问题中,一般假设样本属于伯努力分布(n重二项分布),即:

则根据式(3),得:

则对于所有样本,每个样本概率相乘得到似然函数:

 

2.4 对数似然函数

为了方便计算,通过式(5)将累乘通过对数变换成累加:

2.5 梯度

最大似然估计求的是最大值,即为梯度上升的问题,而此时需要求梯度下降最小值的问题,因此需引入负号,除以m是为了平均累加的和,令:

将式(7)用矩阵的形式表示:

其中f为式(1)所表示的函数,根据式(8)对W求偏导:

2.6 更新参数

根据式(9)中所求得的梯度,即可更新W参数的值:

上式可认为是批量梯度下降算法参数更新,其中α为学习率。对于小批量梯度下降算法的参数更新,可参考下式:

上式中针对W中第j个参数的更新,其中t为批大小。

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值