介绍
根据受欢迎程度,线性回归和逻辑回归经常是我们做预测模型时,且第一个学习的算法。但是如果认为回归就两个算法,就大错特错了。事实上我们有许多类型的回归方法可以去建模。每一个算法都有其重要性和特殊性。
内容
- 什么是回归分析?
- 我们为什么要使用回归分析?
- 回归有哪些类型 ?
- 线性回归
- 逻辑回归
- 多项式回归
- 逐步回归
- 岭回归
- Lasso回归
- ElasticNet回归
- 如何去选择回归模型?
什么是回归分析?
回归分析是研究自变量和因变量之间关系的一种预测模型技术。这些技术应用于预测,时间序列模型和找到变量之间关系。例如可以通过回归去研究超速与交通事故发生次数的关系。
我们为什么要用回归分析?
这里有一些使用回归分析的好处:
- 它指示出自变量与因变量之间的显著关系
- 它指示出多个自变量对因变量的影响
回归分析允许我们比较不同尺度的变量,例如:价格改变的影响和宣传活动的次数。这些好处可以帮助市场研究者/数据分析师去除和评价用于建立预测模型里面的变量。
回归有哪些类型?
我们有很多种回归方法用预测。这些技术可通过三种方法分类:自变量的个数、因变量的类型和回归线的形状。
1.线性回归
线性回归可谓是世界上最知名的建模方法之一,也是应该是我们第一个接触的模型。在模型中,因变量是连续型的,自变量可