机器学习系列8:逻辑回归的代价函数

还记得我们原来在线性回归中学过的代价函数吗?

未命名图片.png

我们把黄色部分用函数的形式来表示:

未命名图片.png

如果我们在逻辑回归中也用这个代价函数去拟合参数行不行呢?答案是不行。因为这个代价函数在逻辑回归中的图像是这个样子的:

未命名图片.png

这是一个非凸函数,有多个局部最优解,运用梯度下降算法并不会收敛到它的全局最优解,这样就达不到我们预期的效果。那该怎么办呢?让我们来学习逻辑回归中的代价函数吧。

 

逻辑回归的代价函数是这样的:

未命名图片.png

让我们具体的看一下它的工作原理。

 

当 y = 1 时,Cost(hθ(x), y) 函数的图像是一个对数函数,如下:

未命名图片.png

其中 hθ (x)  是我们预测的值,它的范围在 [0, 1] 区间。当我们预测值 hθ (x)  =1 时,此时与真实值 y 相同,预测正确,那么它的代价值就为 0;当我们预测值 hθ (x)  = 0 时,此时与真实值 y = 1 恰恰相反,预测错误,那么这个代价就是无穷大的(是不是很直观形象呢)。

当 y = 0 时 Cost(hθ (x), y) 的图像如下,其工作原理与 y = 1 相同。可以自己思考一遍这个过程。

未命名图片.png

上面代价函数的书写形式是一个分段函数,我们可以简化一下这个代价函数:

未命名图片.png

这个形式与上面那个等价。

 

我们如何自动地去拟合参数 θ 呢?你是不是想到了我们之前在线性回归中学到的减小代价函数去拟合参数 θ 的方法——梯度下降。在逻辑回归中,我们依然可以运用这个方法。

未命名图片.png

与之前线性回归不同的是,这里的 hθ (x) 变成了逻辑回归算法的假设函数 hθ  (x)  。

 

 

ps. 本篇文章是根据吴恩达机器学习课程整理的学习笔记。如果想要一起学习机器学习,可以关注微信公众号「SuperFeng」,期待与你的相遇。

请关注公众号.PNG

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值