[ML skill]机器学习(machine learning)之逻辑回归

刚刚上篇多元线性回归的文章写了大半天 - - 发表了之后不知道为啥只有最初保存在草稿箱里的几个字 - - 不会出bug了吧

同学们大噶好!

今天跟大家介绍一下逻辑回归问题,前面文章好像提了一嘴。

所谓逻辑回归问题就是,生活中我们常常遇到一些问题并非呈现一种线性化的分布,比如说生一个小孩是男孩还是女孩,我在抽一张扑克是黑桃红桃方片梅花,这一类问题就是分类问题。可能有一些数值分析基础的同学们对于前面的线性回归问题并不难理解,毕竟只是一些不太复杂的数学计算,可是如何完成对一件事情通过一些features进行分类,反正对于我来说,在接触机器学习课程之前是怎么也想不清楚。

听我往下讲之前建议阅读:https://zhuanlan.zhihu.com/p/28775274

对于二元逻辑回归问题,本质上是对一些其他数学模型(如线性回归模型)的一些处理,使之对数据的敏感性更有利于对预测值h(x)的分类。

吴恩达老师在介绍这部分内容时采用了一种非常感性的方法,就是所谓的“你也不用管它是咋来的,你只要记住这个结果就行了 - -”,我在想讲述这里的时候也做了大概一天的尝试 = = 确实对我这种工科出身的糙汉子来说,无论是从计算机逻辑的角度还是从数学逻辑的角度都比较难以清楚地阐释 - - 所以我决定给大家复制一段知乎大神的发言,我对比了几份资料,感觉这个是最通俗易懂的,原文略有删减:

把 y 在 X=x 时的条件期望简记作:

 

\mu\left(x\right)=E\left(y|X=x\right) \ \left[ 2.1 \right]

 

如果引入一个函数 g ,令:

 

g\left(\mu\left(x\right)\right)=\beta_0+\beta_1x_1+\beta_2x_2+...+\beta_px_p = x^T\beta \ \left[2.2\right]

 

g 称作链接函数 Link \ Function 。如果 g 是恒等函数 g\left(t\right)=t ,则 [2.2] 就退化为 [1.4] (一般线性回归)。所以线性模型是 [2.2] 在链接函数为恒等函数时的特例。[2.2] 就是广义线性模型。链接函数 g采用不同的形式就产生不同的模型。

 

考虑二分类问题。样本输出 y 是类别的标记:0 表示负例;1 表示正例。把 X=x 时样本属于正例的概率记为 Pr\left(y=1|X=x\right) ,则有:

 

\mu\left(x\right)=E\left(Y|X=x\right)=1 \times Pr\left(y=1|X=x\right) + 0 \times Pr\left(y=0|X=x\right) = Pr\left(y=1|X=x\right)=p\left(x\right) \ \left[ 2.3 \right]

 

最后的 p\left(x\right) 是 Pr\left(y=1|X=x\right) 的简写。令链接函数 g 是 logit 函数:

 

logit\left(t\right) = log\frac{t}{1-t} \ \left[2.4\right]

 

logit 函数图形为:

图 2.1 logit 函数图形

 

 

把 logit 函数和 [2.3] 代入 [2.2] 中有:

 

logit\left(\mu \left(x\right)\right)=log\frac{\mu\left(x\right)}{1-\mu\left(x\right)}=log\frac{p\left(x\right)}{1-p\left(x\right)}=x^T\beta \ \left[2.5\right]

 

也就是将正例与负例概率之比的对数(称作 log \ odds )建模为线性。从这里也可看出,不论最终将判断正例的概率阈值定在多少,模型判断正例与负例的分界线是 logit\left(\frac{p\left(x\right)}{1-p\left(x\right)}\right)=x^T\beta=C ,为一条直线。现在将 [2.5] 变形得到:

 

p\left(x;\beta\right)=\frac{1}{1+e^{-x^T\beta}} \ \left[ 2.6 \right]

 

对于二分类问题,一个可采用的损失函数是 Binomial \ Deviance 。如果 y 取 1 和 0 标记正负例。令 X=x 时样本为正例的概率是 p\left(x;\beta\right) ,该损失函数为:

 

Binomial \ Deviance = -y \times log \ p\left(x;\beta\right)-(1-y) \times log \ \left(1-p\left(x;\beta\right)\right) \ \left[2.8\right]

 

它是“对数似然”的相反数(可参考:https://zhuanlan.zhihu.com/p/28775274,中间解释得比较详细。将 [2.8] 取相反就是对数似然。可以到看当 y=1 时对数似然为 log\ p\left(x;\beta\right) ;当 y=0 时对数似然为 log \ \left(1-p\left(x;\beta\right)\right) 。 Binomial \ Deviance也是交叉熵 Cross \ Entropy 。交叉熵衡量两个分布的相似程度。其中一个分布是模型的预测分布。另一个分布是观察到的该样本类别的分布。对数似然越大越好。最小化 Binomial \ Deviance 就是最大化对数似然,最小化交叉熵。

 

逻辑归回就是寻找 \beta 在训练集上最小化平均损失:

 

\hat{\beta} = argmin_\beta\frac{1}{N}\sum_{i=1}^{N}{\left\{-y\ log\frac{1}{1+e^{-x_i^T\beta}} -\left(1-y\right) \ log\frac{1}{1+e^{x_i^T\beta}}\right\}} \ \left[2.10\right]

 

当找到了 \hat{\beta} ,一个新的样本 x 属于正例的概率就是:

 

\hat{p}\left(x;\hat{\beta}\right)=\frac{1}{1+e^{-x^T\hat{\beta}}} \ \left[2.11\right]

 

可以根据 \hat{p} 是否大于 0.5 (或者其他阈值)判断 x 是否属于正例。从这个式子也可以看出逻辑回归模型相当于只有一个神经元的神经网络,该神经元激活函数是 Logistic \ Function 。 Binomial \ Deviance 不是凸函数,其最小值没有解析解,需要通过最优化算法来寻找 \hat{\beta} ,比如梯度下降法。

感谢:https://zhuanlan.zhihu.com/p/33777397

不知道大家看懂了没有,其实整个损失函数的推导(1,0分类的,也有1,-1分类的方法上文链接中也有简单提到)并不需要明确数学的推导只要会用就可以了,只要我们有明确的认识:损失函数是度量预测值和真实值差距的一种方法:

上面的引用也提及到,用这种方法得到的损失函数并非凸函数(convex),需要通过优化的算法得到。如果使用梯度下降算法求得J的最小值仍然需要前一篇线性回归中提到的过程:

而J对各个θ的偏导数也可以通过数学推导的方法实现:

看起来很像线性回归函数的更新规则有木有,不同的地方是他们假设函数有所变化。用代码实现以上功能为:

y_pred = sigmoid(X*theta);
J = 1/m* (-y'*log(sigmoid(X*theta)) - (1 - y')*log(1-sigmoid(X*theta)));
grad = 1/m* X'*(y_pred - y);

需要注意的是其中利用了一些向量化的方法,避免的循环for - loof的使用。

当然,除了梯度下降算法,吴老师还介绍了一些可供我们业余学习的其他算法,如Conjugate gradient(共轭梯度法)、BFGS(拟牛顿算法)、L-BFGS(L-拟牛顿算法),他们的优点是不用选择学习率,同时更加高效快捷,但缺点是比较复杂。

构造完成损失函数和它关于θ的偏导数后,按理来说我们应该选择学习率和迭代次数然后写梯度下降的算法了,但实际上matlab中为我们提供了非常优秀的自动计算极小值的算法,如fmincg

fminunc

Find minimum of unconstrained multivariable functionNonlinear programming solver.Finds the minimum of a problem specified by min f(x)

where f(x) is a function that returns a scalar.

x is a vector or a matrix; see Matrix Arguments.

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值