【AA】回归学习总结

这篇博客全面总结了回归学习的相关概念,包括变量间的关系、回归与相关的区别、回归分析的基本内容、模型假设、建模过程、极大似然原理、最小二乘估计的性质、统计检验以及残差分析等核心知识点,旨在帮助读者深入理解和应用回归分析。
摘要由CSDN通过智能技术生成

topic1.变量间的关系有哪些?

变量间的关系大体上有两类:

①函数关系:y = f(x);

②非确定性关系:y = ax1 + bx2 + t (t为随机扰动项).


topic2.回归与相关有何区别?

1.回归中,y依赖于x;相关分析中,y与x的地位一样。

2.回归中,y是随机变量,x是确定性变量;相关分析中,y与x都是随机变量。

3.用途不一样,回归不仅可以探索变量之间的关系,还可以用来做控制和预测;相关分析用来研究变量间的线性相关程度。


topic3.回归分析研究的基本内容和脉络是怎样的?



topic4.回归模型中随机误差项主要包括哪些因素的影响?

1.由于人们认识的局限或时间、费用、数据质量等制约未引入回归模型但又对回归被解释变量y有影响的元素;

2.样本数据的采集过程中变量观测值的观测误差的影响;

3.理论模型设定误差的影响;

4.其他随机元素的影响。


topic5.古典线性回归模型有哪些基本假设?

来自:这里。


topic6.回归模型建模的过程是怎样的?



topic7.极大似然原理的基本思想是什么样的?

极大似然原理的直观想法是:一个随机试验如有若干个可能的结果A,B,C,…。若在一次试验中,结果A出现,则一般认为试验条件对A出现有利,也即A出现的概率很大。


topic8.最小二乘估计有哪些性质?

1.估计量是随机变量yi的的线性函数;

2.估计量是无偏估计;

3.估计量的方差


在高斯-马尔卡夫条件下,估计量是最佳线性无偏估计。


topic9.t检验的原假设是什么?构造的t统计量是什么?拒绝域是什么?

t检验的原假设:回归系数为0,即x的变化对y没有影响。

t统计量:


拒绝域:



topic10.如何理解P值?

•P值即显著性概率值(Significence Probability Value);

•是当原假设为真时得到比目前的样本更极端的样本的概率,所谓极端就是与原假设相背离;

•它是用此样本拒绝原假设所犯弃真错误的 真实概率,被称为观察到的(或实测的)显著性水平;






topic11.F检验的原假设是什么?F检验的统计量是什么?

F检验的原假设:回归方程不显著。




topic12.相关系数显著性检验的统计量是什么?

相关系数显著性检验的统计量:

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值