Stanford机器学习课程笔记——LR的公式推导和过拟合问题解决方案

这篇博客详细介绍了斯坦福大学机器学习课程中的逻辑回归(Logistic Regression)概念,包括LR的S型函数假设模型、代价函数的设定原因及其非凸性质,以及梯度下降法的公式推导。此外,还探讨了解决过拟合问题的两种方法:降维(如PCA)和正则化,特别是在LR中如何通过正则项来防止过拟合,并解释了正则化对参数的影响。
摘要由CSDN通过智能技术生成

Stanford机器学习课程笔记——LR的公式推导和过拟合问题解决方案

    

1. Logistic Regression


    前面说的单变量线性回归模型和多变量线性回归模型,它们都是线性的回归模型。实际上,很多应用情况下,数据的模型不是一个简单的线性表示就可以搞定的(后面的稀疏表示和字典学习又再次回到的线性表示,当然这个是后话)。更多的时候,我们需要建立一个非线性的模型。此时,Logistic Regression就诞生了。

    LR的假设模型:

    前面的线性模型都是线性方程作为假设模型,这里的LR使用的逻辑函数,又称为S型函数。





为什么使用这个逻辑函数呢?其实后面有着既内涵有巧妙地原因:

  • 这个函数对于给定的输入变量,会根据选择的参数计算输出变量=1的可能性,,也就是说它的输出表示概率,都是0到1之间;
  • 该S型假设模型函数融入到后面的代价函数中之后,在梯度下降法中求导之后的模型
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值