数学建模之回归分析

应用场景

简单地说,回归分析是对拟合问题做的一种统计分析。
P.S. 曲线拟合问题的特点是,根据得到的若干有关变量的一组数据,寻找因变量与(一个或几个)自变量之间一个函数,使这个函数对那组数据拟合得最好。通常。函数的形式可以由经验、先验知识或对数据的直接观察决定,要做的工作是由数据用最小二乘法计算函数中的待定系数

具体地说,回归分析在一组数据的基础上研究以下问题:

  1. 建立因变量 y y y与自变量 x 1 , x 2 , . . . , x m x_1,x_2,...,x_m x1,x2,...,xm之间的回归模型(经验公式);
  2. 对回归模型的可信度进行检验;
  3. 判断每个自变量 x i ( i = 1 , 2 , . . . , m ) x_i(i=1,2,...,m) xi(i=1,2,...,m) y y y的影响是否显著;
  4. 诊断回归模型是否适合这组数据;
  5. 利用回归模型对 y y y进行预报或控制。

1. 建立回归模型

1.1 筛选变量

1.1.1 确定样本空间

m m m个变量,对它们分别进行了 n n n次采样(或观测),得到 n n n个样本点,
( x i 1 , x i 2 , . . . , x i m ) , i = 1 , 2 , . . . , n (x_{i1}, x_{i2}, ... , x_{im}), i = 1, 2, ..., n (xi1,xi2,...,xim),i=1,2,...,n
所构成的数据表可以写成一个 n × m n \times m n×m维的矩阵。

1.1.2 对数据进行标准化处理

(1)数据的中心化处理
实际上就是平移变化,即 x i j ∗ = x i j − x j ‾ , i = 1 , 2 , . . . , n , j = 1 , 2 , . . . , m x_{ij}^* = x_{ij} - \overline{x_j}, i=1,2,...,n, j=1,2,...,m xij=xijxj,i=1,2,...,n,j=1,2,...,m

这种处理,可以是样本的均值为 0 0 0,同时它既不改变样本点的相互位置,也不改变变量间的相关性,但变换后,有许多技术上的便利。
(2)数据的无量纲化处理
在实际问题中,不同变量的测量单位往往是不同的。
为了消除变量的量纲效应,使每个变量都具有同等的表现力,数据分析中常用的消量纲的方法,是对不同的变量进行所谓的压缩处理——使每个变量的方差为1
即, x i j ∗ = x i j / s j , 其 中 , s j = 1 n − 1 ∑ i = 1 n ( x i j − x j ‾ ) 2 x_{ij}^* = x_{ij} / s_j,其中,s_j = \sqrt{\frac{1}{n-1}\sum_{i=1}^{n}(x_{ij}-\overline{x_j})^2} xij=xij/sjsj=n11i=1n(xijxj)2

当然,也有其他消量纲的方法,此处不一一列举。
(3)数据的标准化处理——对数据同时进行“中心化-压缩”处理
即, x i j ∗ − x i j − x j ‾ s j , i = 1 , 2 , . . . , n , j = 1 , 2 , . . . m x_{ij}^* - \frac{x_{ij} - \overline{x_j}}{s_j}, i=1,2,...,n, j=1,2,...m xijsjxijxj,i=1,2,...,n,j=1,2,...m

1.1.3 变量筛选

——选择哪些变量作为因变量的解释变量:

  • 一方面,希望尽可能不遗漏重要的解释变量
  • 一方面,遵循参数节省原则(自变量数目过大时,模型计算复杂,且往往会扩大估计方差,降低模型精度),使自变量的个数尽可能少

(1)穷举法
列举出所有可能的潜在变量,再根据自变量的不同组合,选取合适的模型。
假设有 m m m个潜在变量,则需要拟合与比较的方程个数为 2 m 2_m 2m——当 m m m较大时不现实

(2)向前选择变量法

Created with Raphaël 2.2.0 初始:模型中没有任何解释变量 分别考虑y与每一个自变量的一元线性回归模型 对所有的这m个模型进行F检验,选择F值最高者作为第一个进入模型的自变量 对剩下的变量分别进行偏F检验 至少有一个xi通过了偏F检验? 在所有通过偏F检验的自变量中,选择Fj值最大者作为下一个被选入模型的自变量 结束 yes no

缺点:
一旦某个自变量被选入模型,它就永远留在模型中。然鹅,随着其他变量的引入,由于变量之间相互传递的相关关系,一些先进入模型的变量的解释作用可能会变得不再显著。

(3)向后删除变量法

Created with Raphaël 2.2.0 初始:所有自变量都在模型中(起始的全模型) 分别对模型中剩余的每一个自变量做偏F检验(以去掉xj的模型为减模型) 所有的变量都通过了偏F检验? 选择Fj值最小的自变量,将它从模型中删除 结束 yes no

缺点:
一旦某个自变量被删除后,它就永远被排斥在模型之外。但是,随着其它变量的被删除,它对 y 的解释作用也可能会显著起来。

(4)逐步回归法——最常用

综合向前选择和向后删除,采取边进边退的方法:

  • 对于模型外部的变量,只要它还可以提供显著的解释信息,就可以再次进入模型
  • 对于已在内部的变量,只要它的偏F检验不能通过,则还可能从模型中删除

具体流程见书,此处不再赘述。

另外,为了避免变量的进出循环,一般取偏F检验拒绝域的临界值为: F 进 > F 出 F_进 > F_出 F>F,式中, F 进 F_进 F为选入变量时的临界值, F 出 F_出 F未删除变量时的临界值。

在所有标准的统计软件中都有逐步回归的程序。 F 进 F_进 F F 出 F_出 F的检验水平值也可以自定,也可以是备择的。常见的检验水平值为 α 进 = 0.05 \alpha_进 = 0.05 α=0.05 α 出 = 0.1 \alpha_出 = 0.1 α=0.1

1.1.4 调整复判定系数

——一般的统计软件常在输出中同时给出 R 2 R^2 R2 R ‾ 2 \overline{R}^2 R2,如果两者相差过大,则应考虑减少或调整变量【个人认为,可用于检验逐步回归的结果】

统计学家主张在回归建模时,采用尽可能少的自变量,不要盲目地追求复判定系数 R 2 R^2 R2的提高
当变量增加时,残差项的自由度就会减少 d f E = n − m − 1 df_E = n-m-1 dfE=nm1,自由度越小,数据的统计趋势就越不容易显现,故而定义了一个调整复判定系数

R ‾ 2 = 1 − Q / ( n − m − 1 ) S S T / ( n − 1 ) \overline{R}^2 = 1 - \frac{Q/(n-m-1)}{SST/(n-1)} R2=1SST/(n1)Q/(nm1)

此外, R ‾ 2 \overline{R}^2 R2还可以用于判断是否可以再增加新的变量:
若增加一个变量,

  • R ‾ 2 \overline{R}^2 R2明显增加,,可考虑增加此变量
  • R ‾ 2 \overline{R}^2 R2无明显变化,不必增加此变量

1.2 最小二乘估计

一元线性回归、多元线性回归——略。

2. 回归模型假设检验

——检查自变量与因变量之间能否用一个线性关系模型表示( F F F检验)

具体检验方法见书,此处不再赘述。

3. 回归参数假设检验和区间估计

——检查每一个自变量对因变量的影响是否显著( t t t 检验)

具体检验方法见书,此处不再赘述。

4. 拟合效果分析

4.1 残差的样本方差(MSE)

M S E = 1 n − 2 ∑ i = 1 n ( e i − e ‾ ) 2 MSE = \frac{1}{n-2} \sum_{i=1}^{n}(e_i - \overline{e})^2 MSE=n21i=1n(eie)2
可以计算残差的样本均值 e ‾ = 0 \overline{e} = 0 e=0
记, S e = M S E = 1 n − 2 ∑ i = 1 n e i 2 S_e = \sqrt{MSE} = \sqrt{\frac{1}{n-2} \sum_{i=1}{n} {e_i}^2} Se=MSE =n21i=1nei2
S e S_e Se越小,拟合效果越好

4.2 判定系数(拟合优度)

——指可解释的变异占总变异的百分比,用 R 2 R^2 R2表示
R 2 = S S R S S T = 1 − S S E S S T R^2 = \frac{SSR}{SST} = 1 - \frac{SSE}{SST} R2=SSTSSR=1SSTSSE
其中,
S S T = ∑ i = 1 n ( y i − y ‾ ) 2 , 原 始 数 据 y i 的 总 变 异 平 方 和 , d f T = n − 1 SST = \sum_{i=1}^n(y_i - \overline{y})^2,原始数据y_i的总变异平方和,df_T = n-1 SST=i=1n(yiy)2yidfT=n1
S S R = ∑ i = 1 n ( y i ^ − y ‾ ) 2 , 用 拟 合 直 线 可 解 释 的 变 异 平 方 和 , d f R = 1 SSR = \sum_{i=1}^n(\hat{y_i}-\overline{y})^2,用拟合直线可解释的变异平方和,df_R = 1 SSR=i=1n(yi^y)2线dfR=1
S S E = ∑ i = 1 n ( y i − y i ^ ) 2 , 残 差 平 方 和 , d f E = n − 2 SSE = \sum_{i=1}^n(y_i - \hat{y_i})^2,残差平方和,df_E = n-2 SSE=i=1n(yiyi^)2dfE=n2
S S T = S S R + S S E SST = SSR + SSE SST=SSR+SSE

R 2 R^2 R2越接近1,拟合点与原数据越吻合

另外,还可证明, R 2 \sqrt{R^2} R2 等于 y y y与自变量 x x x的相关系数,而相关系数的正负号与回归系数 β 1 ^ \hat{\beta_1} β1^的符号相同

5. 利用回归模型进行预测

利用回归模型预测

其他

偏相关系数(净相关系数)

在研究两个变量之间的线性相关程度时,可考察这两个变量的简单相关系数。但在研究多个变量之间的线性相关程度时,单纯使用两两变量的简单相关系数往往具有虚假性。因为它只考虑了两个变量之间的相互作用,忽略了其他变量对这两个变量的影响。

复共线性和有偏估计方法

在一些大型线性回归问题中,最小二乘估计不总令人满意,比如系数正负号与实际意义不符,这可能是因为回归自变量之间存在着近似线性关系——复共线性(Multicollinearity)

解决方法——牺牲无偏性,改用合适的有偏估计方法,以改善估计的稳定性
例如,岭估计——可以显著改善矩阵列复共线性时最小二乘估计量的均方误差,增强估计的稳定性。
(P.S. 均方误差Mean Squared Errors:一个好的估计应该具有较小的均方误差)

再如,主成分估计——可以去掉一些复共线性

小结

采用回归模型进行建模的可取步骤如下:

  1. 建立回归模型
    确立样本空间,对数据进行标准化处理,采用逐步回归法筛选自变量
  • 19
    点赞
  • 105
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
非线性回归分析是一种用于建立非线性关系的回归模型的方法。在数学建模中,非线性回归分析可以用来描述解释变量和被解释变量之间的非线性关系。与一元线性回归不同,非线性回归可以包含多个解释变量和多个回归系数。 在进行非线性回归分析时,一般需要先确定适合的非线性回归模型。这可以通过绘制数据点的散点图,并观察其形状来确定。根据散点图的形状,可以选择适合的非线性回归模型进行分析。常见的非线性回归模型包括指数模型、对数模型、幂函数模型等。 在MATLAB中,可以使用相关的函数和工具箱来进行非线性回归分析。通过输入解释变量和被解释变量的数据,以及选择适合的非线性回归模型,MATLAB可以计算出最优的回归系数,并进行模型的拟合和检验。 总之,非线性回归分析是一种用于建立非线性关系的回归模型的方法,在数学建模中可以用来描述解释变量和被解释变量之间的非线性关系。在进行非线性回归分析时,需要选择适合的非线性回归模型,并使用相应的工具进行计算和分析。 #### 引用[.reference_title] - *1* *2* [菜鸟的数学建模之路(二):线性与非线性回归](https://blog.csdn.net/qq_40298902/article/details/100663817)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [数学建模之多元非线性回归](https://blog.csdn.net/JxufeCarol/article/details/100144673)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值