机器学习之逻辑回归详解

参考地址:
https://www.zhihu.com/question/65350200
https://github.com/GreedyAIAcademy/Machine-Learning
https://zhuanlan.zhihu.com/p/70587472

线性回归

方程

753880-20190702222107271-1051503577.png

损失函数

753880-20190702222230188-1476027111.png

求导

753880-20190702222342990-648177174.png

令导数为0,得到

753880-20190702222418600-691423548.png

逻辑回归

逻辑回归函数

753880-20190702213247534-602266411.png
函数的图像:
753880-20190702213539709-1705400638.png

逻辑回归函数如何解决二元分类过程?

当P(y=1|x)的值>0.5时输出1,否则输出0

逻辑回归的损失函数

753880-20190702214235798-1580493965.png
梯度值:
753880-20190702214359285-1499160696.png

梯度下降法

753880-20190702214340419-2030979947.png

为什么?(逻辑回归的损失函数)

似然函数

假设分段函数f(x)结果只两个值0,1,为1的概率为p,为0的概率就是1-p,规范一些,可以描述如下:
753880-20190702214903536-1598030384.png
我们把训练数据(X,y)代入公式,让矩阵中所有的p(1-p)相乘。
753880-20190702215902249-635832657.png
为什么要相乘?有人说是因为要用一个函数将y=0和y=1的形式统一起来,其实不准确,应该是为了“最大似然估计”。
参考:https://www.zhihu.com/question/65350200

推导损失函数

通过最大似然估计,推导出损失函数
753880-20190702220723149-1421375803.png

推导出梯度值

第一步,还是通过最大似然函数求损失函数
753880-20190702221310971-599355721.png

第二部,对损失函数针对权值w求偏导数
753880-20190702221346797-63034747.png
获得的结果即梯度下降法中的梯度值。

转载于:https://www.cnblogs.com/bugutian/p/11123484.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值