机器学习-逻辑回归

逻辑回归是一种用于分类的监督学习算法,它使用sigmoid函数进行预测,并采用对数损失函数以避免局部最小值。梯度下降法用于优化模型参数。过拟合是需要解决的问题,可以通过增加数据、特征选择、正则化等方法缓解。正则化通过调整λ参数平衡模型复杂度与拟合程度。极大似然估计用于确定使样本出现概率最大的模型参数。
摘要由CSDN通过智能技术生成

逻辑回归也称为logistic回归分析,其主要解决的是分类问题,属于监督学习,其推导过程与梯度下降和线性回归类似,损失函数与线性回归不同,用到了log(对数)函数。下图中g(z)称为sigmoid函数,z就是我们上一个所说的线性回归模型。

1.逻辑回归模型

2.决策边界

线性回归模型z=0就是逻辑回归模型的决策边界,对于多元线性回归同样可以转化为向量的形式,但是我们无法可视化展示。

3.逻辑回归中的代价(损失)函数

均方误差虽然适合作为线性回归的损失函数,但其不适合作为逻辑回归的损失函数,因为在逻辑回归中由于sigmoid函数存在,均方误差会出现较多的局部最小值,梯度下降法无法找到全局最小值,这将非常影响我们训练模型,出现欠拟合的情况。

所以我们选用对数函数作为逻辑回归的损失函数,由于逻辑回归输出的结果在0~1之间,预测值越接近真实值,其损失就越小,反之,损失就越大,下图就很清楚的解释了这一点,我们还可以对其简化。

简化后的损失函数

4.梯度下降

逻辑回归损失函数梯度下降法与线性回归类似,通过迭代不断更新w,b的值。
 

5.过拟合问题

过拟合就是我们训练的模型在训练集上表现的非常好,但是在测试集上表现的就很差,具有高方差,我们也把这种叫做泛化能力弱的模型。欠拟合就是在训练集和测试集上表现的都不好,具有高偏差。我们需要的是一个泛化能力强的模型,对于一些没见的数据也能预测的非常好。

6.如何解决过拟合

尽可能多的收集数据。                                                                       进行特征选择,或者使用PCA降维,少的特征可以避免过拟合发生            加入正则化参数,正则化可以降低较大参数对模型的影响          

7.正则化

我们在损失函数中加入正则化参数,对于参数选择,如果lanmuda过大,其可能拟合为一条直线b,如果lanmuda过小,就相当于没有添加正则化参数,将正则化参数带入损失函数中:

8.极大似然估计

极大似然估计:是通过已知的结果反

目录

1.逻辑回归模型

2.决策边界

3.逻辑回归中的代价(损失)函数

4.梯度下降

5.过拟合问题

6.如何解决过拟合

7.正则化

8.极大似然估计


推处导致最大结果的参数,而极大似然估计是概率论在统计学中的应用,它提供了一种给定观察数据来评估模型参数的方法,即“模型已确定,参数未确定”,通过若干次实验观察,利用实验的某个参数使得样本出现的概率最大,称为极大似然轨迹。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值