逻辑回归阈值_逻辑回归logistic(含python代码)

875ec57af8d9b7b25a953d6dff6bf53c.png

逻辑回归可以看做是被sigmoid进行归一化的线性函数。

这里首先规定,向量x是分类器的输入数据,向量

就是我们要找到的最佳参数。
  • sigmoid函数的输入:

384e8d792244c705a26df7d0e63143f7.png
  • 预测函数(其实就是概率值):(sigmoid函数)

189e9b59b2f911fba9f0bd16075a5a9d.png

注意:多分类的预测函数为:(softmax函数)

e238b72f5577f400143420edc0cae304.png
  • 二分类任务: 分类对应的概率为

c81e7d77a6c8b5ce2b67a4982a15029a.png

损失函数为:

ad37da99e3ec7907bcaaeb1efc53a406.png

利用极大似然函数进行求解,对应似然函数为:

9181d418bd87057b90c8008d10768c3b.png

对数似然函数为:

a269c1b911ba37e4b1c3c1c9332b44d1.png

下面参数更新的求解就是在原有的对数似然函数上乘上了-1/m,由于是负数,所以也由梯度上升转换到了梯度下降),对数似然函数乘上了-1/m之后,对这个新的式子求偏导。

  • 参数更新:

2586ae178000f22b06b9a11baf444e9e.png

计算过程:

y=1的概率为:

9f60c5899dde105b45bdac861db7d5f3.png

这里θ是模型参数,也就是回归系数,σ是sigmoid函数。实际上这个函数是由下面的对数几率(也就是x属于正类的可能性和负类的可能性的比值的对数)变换得到的:

f442596cf2bfd11a2d0d4838f00442b2.png

所以说上面的logistic回归就是一个线性分类模型,它与线性回归的不同点在于:为了将线性回归输出的很大范围的数,例如从负无穷到正无穷,压缩到0和1之间。

似然函数:

2a70a80e19e42d5f528e31ae67e4a302.png

对数似然函数:

a2b6b7f03812b504a2751b31d8cdfd32.png

对对数似然函数进行求导,看导数为0的时候可不可以解出来,也就是有没有解析解

378bc358df4a8e4ff64f2596d43d3cfe.png

然后我们令该导数为0,你会很失望的发现,它无法解析求解。借助迭代进行求最优解。

梯度下降(gradient descent)

Gradient descent 又叫 steepest descent,是利用一阶的梯度信息找到函数局部最优解的一种方法,也是机器学习里面最简单最常用的一种优化方法。它的思想很简单,和我开篇说的那样,要找最小值,只需要每一步都往下走(也就是每一步都可以让代价函数小一点),然后不断的走,那肯定能走到最小值的地方。

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值