一文搞懂线性回归和逻辑回归


1.线性回归(Linear Regression)


1).介绍

线性回归是机器学习中最基础、最经典的算法之一,它利用线性函数对一个或多个自变量和因变量之间关系进行建模,建模过程就是使用数据点来寻找最佳拟合线。线性回归分为两种类型:单变量线性回归(Linear Regression with One Variable),一个自变量和一个结果变量,能在二维平面可视化;和 多变量线性回归(Linear Regression with Multiple Variables),至少两组自变量。

有一点需要注意,“线性回归”中的“线性”指的是因变量关于参数是线性的,而不是关于自变量,比如模型: Y i = β 1 X i + β 2 X i 2 + ε i Y_{i}=\beta_{1} X_{i}+\beta_{2} X_{i}^{2}+\varepsilon_{i} Yi=β1Xi+β2Xi2+εi,因变量对于参数 β 1 \beta_{1} β1 β 2 \beta_{2} β2 是线性的,但对于自变量 X i X_{i} Xi来说就是非线性的,这任然是一个线性回归模型。

  • 优点:线性回归的理解与解释都十分直观,并且还能通过正则化来降低过拟合的风险。另外,线性模型很容易使用随机梯度下降和新数据更新模型权重。
  • 缺点:面对样本属性数量(维度)较大的复杂模型时,会因为计算量过大而无能为力,比如图像识别问题。

2).单变量线性回归模型构建


预测函数(hypothesis)

h θ ( x ) = θ 0 + θ 1 x h_{\theta}(x)=\theta_{0}+\theta_{1} x hθ(x)=θ0+θ1x

这是用来拟合样本数据点的拟合线,我们的目标是找到最优的 θ 0 \theta_{0} θ0 θ 1 \theta_{1} θ1使得拟合效果最好。


损失函数(Loss Function )

L ( i ) = h θ ( x ( i ) ) − y ( i ) L^{(i)}=h_{\theta}\left(x^{(i)}\right)-y^{(i)} L(i)=hθ(x(i))y(i)

这是单个样本预测结果和正确结果的误差值。


代价函数(Cost Function )

J ( θ 1 , θ 2 ) = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J\left(\theta_{1}, \theta_{2}\right)=\frac{1}{2 m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2} J(θ1,θ2)=2m1i=1m(hθ(x(i))y(i))2

代价函数是关于参数 θ \theta θ的函数,代表所有样本损失函数的总和,用来衡量评估模型的好坏,一般情况下它的值越小则模型越好。


3).梯度下降法(Gradient Descent)

前面已经构建好了预测函数和代价函数,接下来就要求解最优参数,使其能够让代价函数值最小。梯度下降法是一种求解机器学习模型最优参数的经典方法。

梯度下降法原理

分别对于每个参数 θ \theta_{} θ,求出代价函数关于该参数的偏导数,也就是代价函数在该参数方向上的斜率,然后根据斜率的符号来调整参数值,由于一个函数的偏导数方向是函数增长最快的方向,因此负偏导数就是代价函数梯度下降最快的方向,相应的斜率值也会不断趋近于0,迭代过程会使得代价函数 J ( θ 0 , θ 1 ) J\left(\theta_{0}, \theta_{1}\right) J(θ0,θ

  • 10
    点赞
  • 60
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
在多分类逻辑回归中,共线性问题是指特征之间存在高度相关性的情况。共线性可能导致模型的不稳定性和不可靠的估计结果。解决多分类逻辑回归的共线性问题可以采取以下几种方法: 1. 特征选择:通过选择与目标变量相关性较高的特征,可以减少共线性带来的影响。可以使用统计方法(如皮尔逊相关系数)或基于模型的方法(如L1正则化)来进行特征选择。 2. 特征转换:可以使用主成分分析(PCA)等方法将高维特征转换为低维特征,减少共线性的影响。 3. 数据收集:如果共线性问题严重,可以考虑收集更多的数据以增加特征的多样性,减少特征之间的相关性。 4. 增加正则化项:在多分类逻辑回归模型中引入正则化项(如L1或L2正则化)可以减少共线性的影响,提高模型的稳定性。 综上所述,解决多分类逻辑回归的共线性问题可以通过特征选择、特征转换、数据收集和增加正则化项等方法来实现。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [一文搞懂线性回归逻辑回归](https://blog.csdn.net/qq_42216093/article/details/121217614)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [逻辑回归——线性二分类(机器学习)](https://blog.csdn.net/qq_50942093/article/details/127849156)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v92^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

进击的西西弗斯

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值