[已解决] 决定系数R2为何为负 from sklearn.metrics import r2_score

最近在炼丹发现一件很有趣的现象,决定系数R2竟然为负,小学生都知道任何一个常数的平方绝不可能为负,潜意识里告诉我这里面必有蹊跷,因此查阅许多资料得知,决定系数R2不是r相关系数的平方这么简单,实际上当非线性模型未捕获任何特征信息,而仅拟合随机噪声就会造成此类现象。

1、定义:

R2 决定系数(Coefficient of Determination)是一种用于评估回归模型拟合优度的指标。它表示模型能够解释数据方差的比例,通常用于比较不同模型的表现。

普遍来讲,R2决定系数的取值范围为[0,1],当R2为1时,表示模型完美预测了数据;当R2为0时,表示模型无法解释数据方差。在实际应用中,R2决定系数通常用于比较不同模型的表现,取值越接近1,表示模型解释的数据方差越多,表现越好。

以下三种公式表达含义一样,作为后续答案补充。

公式定义1:

假设有n个样本,真实值分别为y₁, y₂, ……, yₙ,预测值分别为ŷ₁, ŷ₂, ……, ŷₙ

首先定义总方差(Total Sum of Squares,TSS)为真实值y的方差,即:

TSS = Σ(yᵢ - ȳ)² / n,(i=1,2,…,n)

其中,ȳ为所有真实值的平均数。我们希望得到模型的解释方差,即预测值能够解释的数据方差。因此,定义残差平方和(Residual Sum of Squares,RSS)为:

RSS = Σ(yᵢ - ŷᵢ)² / n,(i=1,2,…,n)

其中,ŷᵢ为第i个样本预测值,yᵢ - ŷᵢ为第i个样本的残差,表示预测值与真实值之间的差。

R2决定系数为解释方差占总方差的比例,即:

R² = 1 - (RSS / TSS)

公式定义2:

公式定义3:

通过分析以上公式不难发现,当应用非线性回归模型时,SSE>SST 即预测值误差特别大,可能会导致R2为负数。

网络其他回答:

解决强多重共线性问题或设计矩阵是奇异的,R2可能为负数。

自变量、因变量间不具有线性关系会导致R2为负数。

 2、官方文档

def score(self, X, y, sample_weight=None):


"""Returns the coefficient of determination R^2 of the prediction.

The coefficient R^2 is defined as (1 - u/v), where u is the residual sum of squares ((y_true - y_pred) ** 2).sum() and v is the total sum of squares ((y_true - y_true.mean()) ** 2).sum().
The best possible score is 1.0 and it can be negative (because the model can be arbitrarily worse). A constant model that always predicts the expected value of y, disregarding the input features, would get a R^2 score of 0.0.

def score(self, X, y, sample_weight=None):

“”“返回预测的决定系数R^2。

决定系数R^2定义为(1-u/v),其中u是残差平方和((y_true-y_pred)**2).sum(),v是平方和总和((y_true-y_true.mean())**2).sum()。 

可能的最佳分数是1.0,也可能是负数(因为模型可能更差)。一个总是预测y的期望值的常数模型,忽略输入特征,会得到0.0的R^2分数。

3、何时R² = R * R

似乎只有在有限的情况下,R² = R * R。引用相关维基百科的解释:

R²有几个定义,其中一类情况包括使用 r² 而不是 R² 的简单线性回归。当仅包含一个截距时, r² 就是观测结果和预测变量值之间的样本相关系数(即 r)的平方。如果包括其他回归系数,则 R² 是多重相关系数的平方。在这两种情况下,确定系数通常范围为0到1。 

简而言之,R²只是相关系数的平方,如果我们恰好(1)使用线性回归模型,(2) 对它们拟合的相同数据进行评估。

所以只有当线性回归模型是拟合的,并且在拟合的相同数据上对其进行评估时,我们才能期望R²在0和1之间。否则,R² 的定义可能会导致负值出现。

参考:

(10条消息) R2决定系数_决定系数r2_丰。。的博客-CSDN博客

(10条消息) R2系数浅析_enginelong的博客-CSDN博客

九道门丨扒一扒机器学习中,R² 为何会出现负数? - 知乎 (zhihu.com) 

  • 5
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
好的,您的问题是如何在Python中引入sklearn、matplotlib和seaborn库,并且如何使用线性回归模型进行预测和评估。我可以为您提供解答。 首先,我们可以使用以下代码在Python中引入sklearn、matplotlib和seaborn库: ``` from sklearn.model_selection import train_test_split, cross_val_score from sklearn.tree import DecisionTreeClassifier, DecisionTreeRegressor from sklearn.metrics import classification_report import matplotlib.pyplot as plt import seaborn as sns from sklearn.linear_model import LinearRegression from sklearn.metrics import mean_squared_error, r2_score ``` 其中,sklearn包含了许多机器学习算法和模型,matplotlib用于数据可视化,seaborn是matplotlib的扩展库,提供更多的绘图样式和功能,LinearRegression是sklearn中的线性回归模型,mean_squared_error和r2_score是评估模型性能的指标。 接下来,我们可以使用以下代码加载数据集并将其分为训练集和测试集: ``` # 加载数据集 data = sns.load_dataset("tips") # 将数据集分为训练集和测试集 X = data.drop(["tip"], axis=1) y = data["tip"] X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42) ``` 然后,我们可以使用以下代码创建一个线性回归模型,并使用训练数据对其进行拟合: ``` # 创建线性回归模型 model = LinearRegression() # 对模型进行拟合 model.fit(X_train, y_train) ``` 接下来,我们可以使用以下代码对测试数据进行预测,并计算模型的均方误差和决定系数: ``` # 对测试数据进行预测 y_pred = model.predict(X_test) # 计算均方误差和决定系数 mse = mean_squared_error(y_test, y_pred) r2 = r2_score(y_test, y_pred) # 输出结果 print("均方误差:", mse) print("决定系数:", r2) ``` 最后,我们可以使用以下代码绘制模型的拟合曲线和预测结果与真实值的散点图: ``` # 绘制拟合曲线 sns.regplot(x="total_bill", y="tip", data=data) # 绘制预测结果与真实值的散点图 plt.scatter(y_test, y_pred) # 设置图形标题和坐标轴标签 plt.title("线性回归预测结果") plt.xlabel("真实值") plt.ylabel("预测值") # 显示图形 plt.show() ``` 以上就是使用sklearn库进行数据分析和线性回归模型预测的方法。希望能够对您有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值