机器学习day4

本文思路:因在逻辑回归里,原本的线性回归的代价函数有很多局部最小值,不便找到全局最小值;所以在这里,引入逻辑回归中的代价函数及损失函数,通过该代价函数,能够驱使算法优化预测的效果。

一、逻辑回归(续)

要创建逻辑回归算法,我们需要引入一个重要的数学函数:
Sigmoid函数(有时也叫做逻辑函数(logistic function))
长这个样子:请添加图片描述
g(z)是这个函数的公式

二、逻辑回归模型

logistic regression
请添加图片描述
第一步:利用线性回归的表达式,把特征量和实际值代入后求出表达式,设为z。
第二步:代入sigmoid function即可。
所得结果即为逻辑回归模型,输出0到1之间的数字。
请添加图片描述
这个也是表示逻辑回归的意思

如何理解:
把输出看作是在给定输入x的情况下,类别或标签y等于1的概率
很多公司就是用这个算法来投放广告的。

三、决策边界(续)

结合上面的,等我算出来模型的值之后,我要怎么确定阈值,使得超过这个阈值则预测值为1,低于这个阈值则预测值为0。
我们常常把阈值设置为0.5。

现在研究一下,什么时候这个函数会大于0.5?
也就是g(wx+b)的值大于0.5,结合上面的图像,这时候z在x轴的正半轴。
所以当wx+b大于等于0的时候,z就大于等于0。
总结一下:
当wx+b大于0的时候,算法结果预测值应为1
当wx+b小于0的时候,算法结果预测值应设置为0.

所以,我们需要找到决策边界的话,就是当wx+b=0的时候。

四、逻辑回归的代价函数

如果用线性回归的代价函数,画出来的代价函数会是非凸代价函数,而不是凸函数。也就是说,会存在很多的极小值,这会对我们找到最终的最小值产生麻烦。长这个样子:

请添加图片描述
事实证明,这种方法对逻辑回归来说不好。
所以这里有个可以使得代价函数再次凸化的代价函数,保证梯度下降可以收敛到全局最小值。

就是把原来的1/2m的1/2放到了求和的式子里面。
请添加图片描述
里面这个求和的式子,就是单个训练样本的损失(loss)
所以我们用大写的L表示损失函数,它是关于f(x)和真实标签y的函数。
请添加图片描述
在这个例子里,损失(给了f(x)和y)等于平方差的一半
代价函数就是1/n 乘以这些损失函数的和,它是一个凸函数。
损失函数可以告诉我们模型在样本上的训练效果怎么样。
请添加图片描述
所以上图就是逻辑回归里的损失函数的公式。表示,当预测值为1时,损失函数的计算方式;当预测值为0时,损失函数的计算方式。所以体现出来的就是,当接近预测值时,我们奖励函数;当离预测值远时,惩罚函数。比如说,当函数预测肿瘤恶性的几率为99.9%,但它实际上是良性的,这个时候函数的损失函数的值就会很高,以这样的形式能够推动算法进行优化。
它衡量的是单个样本的损失,只有把所有训练样本的损失加起来得到的代价函数,才能衡量模型在整个训练集上的表现。
最终的代价函数如下图所示:
请添加图片描述

五、逻辑回归的简化代价函数

请添加图片描述
下方的为简化后的损失函数
再代入到代价函数中:
请添加图片描述
所以这个就是简化后的函数,几乎所有人都用这个来计算代价函数。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

qq030928

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值