逻辑回归(Logistic Regression)

逻辑回归(Logistic Regression)

  逻辑回归(Logistic Regression)大家千万不要被名字所迷惑了,这不是一个回归算法,而是一个二分类问题的分类算法。二分类的目标一般就是对是和不是的区分。
  我们很容易想到,可以根据概率统计以及贝叶斯统计的知识。我们假设它是(某个物体),然后计算一个它是的概率,如果这个概率大于它不是(某个物体),我们就判定它是。反之则判定它不是。这种情况下我们则需要对这个概率进行建模。。。
  但是我们都机器学习了,干脆我们就想让参数能自己动,可以自己学习这个概率函数的算法。假设这些数据都是 R n R^n Rn空间中的一些点,n表示数据特征的维数。如果恰好有一个超平面S, S ∈ R n − 1 S\in R^{n-1} SRn1,我在在这个数据的空间画一个超平面,正好把数据分成两部分。如果这个面能够恰好把数据分成是(某个物体)和不是(某个物体)两部分,那我们的任务就完成了。
  至于这个超平面怎么画,我们可以考虑通过数据,让计算机自己去试如何画这个平面。不管计算机画的好不好,我们都想办法在当前的基础上画的更好,这就是优化工作需要做的。那么我们应该如何评价计算机画的好不好呢,这个时候就需要使用一些评价指标,并且在有数据标签的情况下判断这条线画的到底好不好。所以逻辑回归是一个有监督的问题。
  我们现在已经让计算机学习了如何把这一个分割的超平面画好了。我们现在来了一个数据,我们如何判断这个新数据在平面的哪一边呢。既然都有这个平面的方程了,根据这个方程把数据点代入进去,就可以算出来,这个数据点在平面的什么方向了。
  n维空间中,n-1维超平面的方程就是 θ 0 + θ 1 x 1 + θ 2 x 2 . . . + θ n x n = 0 θ_0+θ_1x_1+θ_2x_2...+θ_nx_n=0 θ0+θ1x1+θ2x2...+θnxn=0,如果新来一个向量 x = ( x 1 , x 2 . . . x n ) T x=(x_1,x_2...x_n)^T x=(x1,x2...xn)T,我们只需要用平面方程等式左边的部分去拟合预测函数,把x代入计算得到一个预测值。 f ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 . . . + θ n x n f(x)=θ_0+θ_1x_1+θ_2x_2...+θ_nx_n f(x)=θ0+θ1x1+θ2x2...+θnxn,如果 f ( x ) > 0 f(x)>0 f(x)>0,则根据该方程预测的结果在平面上方,反之 f ( x ) < 0 f(x)<0 f(

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值