Logistic回归

Logistic regression
经典简单的二分类方法

Sigmoid函数
在这里插入图片描述

函数图像:
在这里插入图片描述
这样可以把 负无穷到正无穷的x 映射到 0-1中
把之前的theta * x 当成z输入到sigmoid函数中
在这里插入图片描述
Theta * x 即theta0 * x0 + theta1* x1 + … +theta n * xn

这样我们h(x)最后得到的就是一个0-1之间的概率值了
如果是分类问题,我们就可以指定说,得到的h(x)为 该样本属于 类别一 的概率
如果是二分类问题,则该样本属于 类别二 的概率就是 1-h(x) 了对吧
在这里插入图片描述
由于是二分类问题
则可以把属于类1 记为 数字1
把不属于类1 记为数字0
则可以得到下式:
在这里插入图片描述
训练数据里的样本是 (x,y)对
回到我们的目标,我们希望得到的y’和y越接近越好
对于单个样本 如果是1样本,则希望h(X)越大越好
如果是0样本 则希望h(x)越小越好
考虑整体样本集合,则我们的目标为下列似然函数

似然函数:
在这里插入图片描述
同样,对数似然:
在这里插入图片描述
我们希望的是对数似然越大越好,求最大值,梯度下降问题是求最小值,我们加个负号就好了
求偏导了:
在这里插入图片描述
注意这里的是thetaj ,thetaj即theta参数中的第j项,求导出来的结果xij里的i是第i个样本,j是第j个特征,更新第j个参数当然要用第j个特征,情理之中

求偏导完成后,也就得到了更新theta参数的方向,也就得到了前进的方向了
进行梯度下降更新:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值