Logistic回归:一种有监督学习的二元分类模型

1.Logistic回归基础知识

二分类模型:根据x,判断y是否为0或1。

目标:输入x,判断y=1的概率,即 \hat{y},其0\leqslant \hat{y}\leqslant1 , x\epsilon R^{n_{x}}

参数\omega \epsilon R^{n_{x}},b\epsilon R

输出\hat{y}=\sigma(w^{T}+b) ,\sigma为sigmod()函数,    其中\sigma (z)=\frac{1}{1+e^{-z}}

     

(1)logistic模型

(2)损失函数Loss

 \pounds (\hat{y},y)=-(ylog\hat{y}+(1-y)log(1-\hat{y}))

损失函数用于衡量单一训练样例的效果

(3)成本函数Cost

\begin{matrix} J(w,b)=\frac{1}{m}\sum_{i=1}^{m}\pounds (\hat{y}^{(i)},y^{(i)}) =-\frac{1}{m}\sum_{i=1}^{m}[y^{(i)}log\hat{y}^{(i)}+(1-y^{(i)})log(1-\hat{y}^{(i)})] \end{matrix}

成本函数用于衡量w和b的效果,在全部训练集上来衡量。

(4)梯度下降法

梯度下降法适用于处理成本函数为凸函数,用来训练或学习训练集上参数w和b,确定出来拥有最小成本函数的参数w和b。

  计算原理

                 w:=w-\alpha \frac{\partial J(w,b)}{\partial w}           b:=b-\alpha \frac{\partial J(w,b)}{\partial b}  

也可写成   w:=w-\alpha dw                 b:=b-\alpha db

        其中\alpha 为学习率,可以控制每次迭代或梯度下降的步长。

logistic回归的成本函数为凸函数,因此可以使用梯度下降法,每次从初始点开始朝着最陡的下坡走一步,进而可以找到接近全局最优解的结果。若成本函数为非凸函数,则有可能会陷入局部最优解。

2.单个训练样本的Logistic回归梯度下降法(计算某一项损失函数)

logistic回归公式求损失函数

计算流程图的正向传播,从左到右计算成本函数J

计算流程图的反向传播,从右向左计算导数

假设样本只有两个特征x_{1},x_{2},则需要三个参数w_{1},w_{2},b

Logistic回归向前传播

Logistic回归向后传播

3.训练集m个样本的梯度下降法(计算成本函数,实际上为1到m项损失函数和的平均)

(1)logistic回归公式求成本函数

计算各参数的偏导数,即全局梯度值(假设样本只有两个特征x_{1},x_{2},则需要三个参数w_{1},w_{2},b

(2)求数据集m项的Logistic回归一次迭代的计算梯度过程

更新参数,为下次迭代做准备:

(3)求数据集m项向量化的Logistic回归的梯度计算过程

(向量化可以去显示for循环,加快运行速度)

更新参数,为下次迭代做准备:

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值