机器学习|2.逻辑回归

本文详细介绍了逻辑回归的原理,包括基本思想、逻辑回归分布、Sigmoid函数的应用、逻辑回归的本质以及其作为简单分类器的角色。通过实例解释了如何通过训练数据调整分类直线的参数,并探讨了其优缺点。同时,提到了逻辑回归在机器学习模型应用中的场景。
摘要由CSDN通过智能技术生成

一.原理解释

1.基本思想:

线性回归模型产生的预测值z=\omega Tx+b是实值,故我们需要将实值z转换为0/1值,最理想的是“单位阶跃函数”。

2.逻辑回归分布:

Logistic分布是一种连续性的概率分布,其分布函数和密度函数分别为:

 其中,\mu是位置参数,\gamma是形状参数。

深度学习中常用的Sigmoid函数就是Logistic的分布函数在\mu =0,\gamma =1的特殊形式。

3.利用Sigmoid函数转换为概率

对数几率函数是一个常用的替代函数:

                                                        y=\frac{1}{1+e^{-z}}

将线性函数带入:

                                                        y=\frac{1}{1+e^{-(\omega ^{T}x+b)}}

两边取对数:

                                ​​​​​​​        ​​​​​​​        ​​​​​​​        ln\frac{y}{1-y}=\omega ^{T}x+b

若将y视作样本x作为正例的可能性,则1-y则是其反例的可能性。

若将y视作概率估计p(y=1|x),则上式可写作:

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ln\frac{p(y=1|x)}{p(y=0|x)}=\omega ^{T}x+b

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        \omega ^{T}x+b=ln\frac{p(Y=1|x)}{1-p(Y=1|x)}

        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        p(Y=1|x)=\frac{1}{1+e^{-(\omega ^{T}x+b)}}

利用极大似然估计法求解\omega和b。 

   也就是说,输出 Y=1 的对数⼏率是由输⼊ x 的线性函数表示的模型,这就是逻辑回归模型。当\omega ^{T}x+b 的值越接近正⽆穷, 概率值也就越接近 1。因此逻辑回归的思路是,先拟合决策边界不局限于线性,还可以是多项式),再建⽴这个边界与分类的概率联系,从⽽得到了二分类情况下的概率。

   似然函数:

                ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Mu ziyang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值