拟合logistic回归算法参数、代价函数简化

从如何拟合logistic回归算法的假设函数的参数开始
即定义用来拟合参数的优化目标或者说是代价函数
在这里插入图片描述
往往右边使用梯度下降得到的是凸函数。左边往往得到的是非凸函数。
在这里插入图片描述
上图是y=1时的图像(Cost关于h的函数)(预测值与目标值(y=1)相差越大,Cost越大)
在这里插入图片描述
上图是y=0时的图像(Cost关于h的函数)

为了避免把代价函数分成y=0和y=1两种情况来写,用一种方法把两个式子合并成一个等式
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
写出logistic回归的代价函数
在这里插入图片描述
然后使用梯度下降法最小化这个代价函数
在这里插入图片描述
与在线性回归中一样,这里同样需要监控梯度下降算法是否正常工作,logistic回归同样适用特征缩放法来控制收敛速度

高级优化
一些高级优化算法可以大大提高logistic回归的运行速度
例如 共轭梯度法,BFGS和L-BFGS
在这里插入图片描述
需要一种方法来计算J,也需要一种方法来计算导数项,比梯度下降更复杂
这三种算法的优势:
(1)不需要手动选择学习率
(2)成功使用这些算法可能并不需要完全弄懂这些算法的内循环

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
大数据logistic回归算法是一种常用的机器学习算法,用于解决二分类问题。它利用大量的数据样本,在线性回归模型的基础上引入了sigmoid函数,将线性回归的输出值转化为概率值。 这个算法的核心思想是通过对已知数据进行建模,寻找最佳系数,以最大化模型概率与实际结果的吻合程度。算法将输入数据进行线性组合,计算出一个概率值,用来描述该样本属于某一类的可能性。概率值越接近1,表示属于正例的可能性越大;概率值越接近0,表示属于负例的可能性越大。 具体而言,大数据logistic回归算法的定义包括以下几个关键步骤: 1. 设定一个线性回归模型,其中包括一个或多个特征变量和一个待估计的目标变量。 2. 对线性回归模型的输出进行映射,使用sigmoid函数将连续的输出变换为0到1之间的概率值。 3. 使用最大似然估计法或梯度下降等方法,通过训练数据集拟合模型的参数,找到使预测值与实际值最接近的系数。 4. 利用训练好的模型参数对新样本进行预测,计算其概率值,并根据设定的阈值划分为正例或负例。 大数据logistic回归算法在大规模数据集上的应用具有很大优势,它能够处理高维度的特征变量,并且计算效率较高。同时,由于引入了概率值,也可以为分类结果提供相应的概率解释。因此,在实际应用中,大数据logistic回归算法被广泛应用于生物医学、金融、营销等领域的分类问题中。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值