线性回归之总离差平方和=回归平方和+残差平方和(TSS = ESS + RSS)及证明

        假设有n个样本,分别为y_1,y_2,...y_n,样本的平均值记为

\bar{y}=\frac{1}{n}\sum_{i=1}^{n}y_i

举个例子,例如现在观察到3个样本,

y_1=30,y_2=30.1,y_3=29.9

那么样本平均值:

\bar{y}=\frac{1}{n}\sum_{i=1}^{n}y_i=\frac{1}{3}(30+30.1+29.9)=30.

1、TSS 

英文全称:Total Sum of Squares,

中文全称:总离差平方和,或者总平方和

数学公式表达:

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
)加上平方和(rss, residual sum of squares)。2、回归平方和(ess)与解释变量的个数有关,平方和(rss)与解释变量的个数无关。 要证明总离平方和(tss)可以分解为回归平方和(ess)加上平方和(rss),可以使用数学推导的方法来证明。假设有一个简单线性回归模型,即y = β0 + β1x + ε,其中β0和β1分别是模型的截距和斜率,ε是误项。 首先,回归平方和(ess)可以表示为解释变量x对因变量y的影响程度,其计算公式为ess = ∑(ŷi - ȳ)²,其中ŷi表示模型对第i个样本的预测值,ȳ表示因变量y的均值。 其次,平方和(rss)表示模型预测值与真实值之间的异程度,其计算公式为rss = ∑(yi - ŷi)²,其中yi表示第i个样本的真实值。 然后,总离平方和(tss)表示因变量y的离散程度,其计算公式为tss = ∑(yi - ȳ)²,其中ȳ表示因变量y的均值。 根据这些计算公式,可以推导得到tss = ess + rss,即总离平方和可以分解为回归平方和加上平方和。 其次,回归平方和(ess)与解释变量的个数有关,因为回归平方和表示的是解释变量对因变量的影响程度,解释变量的个数增加会导致回归平方和的增加。而平方和(rss)与解释变量的个数无关,因为平方和表示的是模型预测值与真实值之间的异程度,与解释变量的个数无直接关系。 因此,可以用数学推导的方法证明总离平方和(tss)可以分解为回归平方和(ess)加上平方和(rss),并且回归平方和(ess)与解释变量的个数有关,平方和(rss)与解释变量的个数无关。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

leboop-L

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值