应用回归分析:多重共线性

多重共线性的概念
在回归分析中,我们通常关注的是如何利用一个或多个自变量(解释变量)来预测一个因变量(响应变量)。当我们使用多元线性回归模型时,理想的情况是模型中的每一个自变量都能提供独特的、对因变量有用的信息。然而,如果两个或两个以上的自变量之间存在强烈的线性关系,就会出现多重共线性的问题。

识别多重共线性
识别多重共线性通常可以通过以下几种方法:

方差膨胀因子(VIF): VIF测量了一个自变量与其他自变量线性关系强度的指标。VIF值大于10通常被认为表明强烈的多重共线性。
相关系数矩阵: 查看自变量之间的相关系数可以帮助识别它们之间是否存在强烈的线性关系。
条件指数: 条件指数是另一种识别多重共线性的方法,条件指数值超过30通常被认为是多重共线性的迹象。

多重共线性的影响
多重共线性会对回归分析产生以下几方面的影响:

参数估计的不稳定性: 当模型中存在多重共线性时,小的数据变化可能会导致参数估计的显著变动。
模型解释的困难: 由于自变量之间的高度相关性,很难区分每个自变量对因变量的独立影响。
预测能力的降低: 多重共线性可能会降低模型对新数据的预测能力。
处理多重共线性的方法
尽管多重共线性是一个棘手的问题,但有几种方法可以用来减轻或解决这一问题:

删除自变量: 如果某些自变量之间存在强烈的相关性,可以考虑删除其中一个或多个。
岭回归(Ridge Regression): 岭回归通过引入一个小的偏差来减少参数估计的方差,从而降低多重共线性的影响。
主成分分析(PCA): PCA可以用来转换自变量,生成一组彼此独立的新变量,然后在这些新变量上进行回归分析。
代码示例
处理多重共线性问题的常用方法包括使用方差膨胀因子(VIF)进行诊断,以及应用岭回归(Ridge Regression)和主成分分析(PCA)作为解决策略。下面提供了一些Python代码示例,这些示例使用了著名的statsmodels和sklearn库来演示这些技术的应用。

方差膨胀因子(VIF)的计算
首先,我们可以使用statsmodels库来计算VIF,以诊断多重共线性问题。

import pandas as pd
from statsmodels.stats.outliers_influence import variance_inflation_factor
from statsmodels.tools.tools import add_constant
 
# 假设df是一个Pandas DataFrame,包含了你的数据
# df = pd.read_csv("your_data.csv")  # 举例载入数据
 
# 给数据添加常数项,用于计算VIF
X = add_constant(df)
 
# 计算每个自变量的VIF并输出
VIFs = pd.Series([variance_inflation_factor(X.values, i) for i in range(X.shape[1])], index=X.columns)
print(VIFs)

岭回归(Ridge Regression)
岭回归是处理多重共线性的一种常用方法。以下是使用sklearn库进行岭回归的示例。

from sklearn.model_selection import train_test_split
from sklearn.linear_model import Ridge
from sklearn.preprocessing import StandardScaler
 
# 假设X和y是你的特征和目标变量
# X = df.drop('target_column', axis=1)
# y = df['target_column']
 
# 数据标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
 
# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)
 
# 应用岭回归
ridge_model = Ridge(alpha=1.0)  # alpha是正则化强度
ridge_model.fit(X_train, y_train)
 
# 模型评估
score = ridge_model.score(X_test, y_test)
print(f"Ridge Regression Score: {score}")


主成分分析(PCA)
当多重共线性问题无法通过移除变量或是其他简单方法解决时,主成分分析(PCA)可以作为一种有效的手段。

from sklearn.decomposition import PCA
from sklearn.linear_model import LinearRegression
from sklearn.pipeline import make_pipeline
 
# 数据标准化并应用PCA
pca = PCA(n_components='mle')  # 'mle'可以自动选择组件数
linear_model = LinearRegression()
model = make_pipeline(StandardScaler(), pca, linear_model)
 
# 使用PCA转换后的数据进行回归
model.fit(X_train, y_train)
 
# 模型评估
score = model.score(X_test, y_test)
print(f"PCA with Linear Regression Score: {score}")

结论
多重共线性是多元线性回归分析中常见的问题,但通过合理的方法可以有效地识别和处理。理解多重共线性的本质及其影响,选择合适的策略来减轻或避免这一问题,对于构建准确可靠的预测模型至关重要。通过综合应用VIF、相关系数矩阵、条件指数等工具,以及采取删除自变量、岭回归、主成分分析等技术手段,可以有效地解决多重共线性问题,提高模型的稳定性和预测能力。

文章知识点与官方知识档案匹配,可进一步学习相关知识
OpenCV技能树视频分析光流24467 人正在系统学习中

Orlando Allen
关注

17


7


0

专栏目录
[Python人工智能] 四十一.命名实体识别 (2)基于BiGRU-CRF的中文实体识别万字详解
杨秀璋的专栏
 193
从本专栏开始,作者正式研究Python深度学习、神经网络及人工智能相关知识。前文讲解如何实现威胁情报实体识别,利用BiLSTM-CRF算法实现对ATT&CK相关的技战术实体进行提取,是安全知识图谱构建的重要支撑。这篇文章将以中文语料为主,介绍中文命名实体识别研究,并构建BiGRU-CRF模型实现。基础性文章,希望对您有帮助,如果存在错误或不足之处,还请海涵。且看且珍惜!
多元线性回归多重共线及自变量选元
04-28
1.某软件公司的月销售额数据如表所示,其中,x为总公司的月销售额...3.对第5章思考与练习中第9题财政收入的数据,分析数据点多重共线性,并根据多重共线性剔除变量,将所得结果与用逐步回归法所得的选元结果相比较。
应用统计建模作业:ARIMA和VAR、Logit回归、多元线性回归、多重共线性、一元线性回归、异方差、自相关
02-27
应用统计建模作业:ARIMA和VAR、Logit回归、多元线性回归、多重共线性、一元线性回归、异方差、自相关
应用MATLAB对数据进行多重共线性检验的小程序
06-07
一个应用MATLAB对数据进行多重共线性检验的小程序。在进行多元线性回归前,通常需要进行多重共线性检验,以保证良好的回归效果。多重共线性的表征方法为VIF值,改程序用于自动计算VIF值。
多重共线性检验的小程序MATLAB
05-31
一个应用MATLAB对数据进行多重共线性检验的小程序。在进行多元线性回归前,通常需要进行多重共线性检验,以保证良好的回归效果。多重共线性的表征方法为VIF值,改程序用于自动计算VIF值。
多重共线性检验的MATLAB程序
05-24
一个应用MATLAB对数据进行多重共线性检验的小程序。在进行多元线性回归前,通常需要进行多重共线性检验,以保证良好的回归效果。多重共线性的表征方法为VIF值,改程序用于自动计算VIF值。
GEE:关于在GEE平台上进行回归计算的若干问题
养乐多的博客
 731
记录一些在Google Earth Engine (GEE)平台上进行机器学习回归计算的问题和解释。
RapidMiner数据挖掘2 —— 初识RapidMiner
weixin_65190179的博客
 1932
本节由一系列练习与问题组成,这些练习与问题有助于理解多个基本概念。它侧重于各种特定步骤,以进行直接的探索性数据分析。因此,其主要目标是测试一些检查初步数据特征的方法。大多数练习都是关于图表技术,通常用于数据挖掘。为此,我们将使用。请求的工作包括发现应用程序的图形用户界面(GUl),以及检查和处理示例数据集的不同元素。
GPT翻译网站的加载与使用
u010879745的博客
 738
GPT自动翻译的加载与使用
一阶段目标检测算法:流程详解
qq_39931336的博客
 533
一阶段目标检测算法通过简化流程,直接在单次前向传播中完成分类和定位任务,实现了较高的处理速度和实时性。这使得一阶段检测算法在许多实时应用场景中具有广泛的适用性。希望本文能够帮助读者深入了解一阶段目标检测算法的流程和原理。在选择目标检测算法时,应根据具体需求权衡速度和准确性,以选择最适合的算法。
SVD奇异值分解
qq_58060770的博客
 710
的对角线元素称为奇异值,( V ) 的列向量称为右奇异向量。给定一个矩阵 ( A ),我们可以计算 ( A^T A ) 和 ( A A^T ) 的特征值和特征向量。假设 ( A ) 是大小为 ( m \times n ) 的矩阵,那么 ( A^T A ) 和 ( A A^T ) 的特征值都是非负实数。),并且根据 ( A^T A ) 和 ( A A^T ) 的特征向量构建 ( U ) 和 ( V )。: 对于一个矩阵 ( A ),它的奇异值是矩阵 ( A ) 的奇异值分解 () 的矩阵,那么它有 (
基于 Python 深度学习的车辆特征分析系统,附源码
程序员徐师兄的博客
 1142
而在机动车的自动识别过程中,通过利用深度学习的算法来让计算机通过不断地获取信息要素形成信息库,可以更好的提升计算机对于车辆的识别能力。本次就是通过利用了深度学习技术结合Python开发工具来设计一款能够在线通过图片分析来识别车辆的品牌的软件。
OpenAI全新发布文生视频模型:Sora!
Talk is cheap, show me the code!
 1225
利用对视频和图像潜在代码的时空Patches进行操作的Transformer架构,最大的模型Sora能够生成一分钟的高保真视频
强化学习(TD3)
最新发布
weixin_42209537的博客
 257
这就不可避免的降低了估值函数的准确度,由于估值方法的计算依据贝尔曼方程,即使用后续状态对估计值进行更新,这种性质又加剧了精确度的下降,在每一次更新策略时,使用一个不准确的估计值将会导致错误被累加,这些贝雷架的错误会导致某一个不好的状态被高估,最终导致策略无法被优化到最优,并使算法无法被收敛。:让目标网络与当前网络更新不同步,当前网络更新d次之后再对traget网络进行更新;critic更新多次后,actor更新,critic的更新频次多于actor的。:在计算目标值时,加上扰动,从而使得评价更加准确。
线性回归:大体介绍
SYC20110120的博客
 657
βn*Xn + ε 其中,Y是因变量,X1, X2, …, Xn是自变量,β0, β1, β2, …, βn是回归系数,ε是误差项。线性回归是一种常见的统计学和机器学习方法,用于建立一个线性关系模型来预测一个连续型目标变量。它假设自变量和因变量之间存在线性关系,并且通过最小化预测值与实际观测值之间的差异来确定最佳拟合直线。它也可以用于探索自变量与因变量之间的关系,以及变量之间的相互作用。线性回归的目标是找到最佳的回归系数,使得预测值与实际观测值之间的残差平方和最小化。这个过程通常使用最小二乘法来实现。
书生浦语-模型微调
d8dongdong的博客
 472
微调作业需要多训练几个epoch,这里训练了16个epoch。
基于 InternLM 和 LangChain 搭建你的知识库(三)
weixin_55982578的博客
 1117
然后,这些检索到的文档被送入一个生成模型,如序列到序列的转换模型,这个模型利用检索到的信息来生成回答或完成给定的文本任务。例如,在回答特定的事实问题、撰写有关特定主题的文章或生成信息丰富的对话回复时,RAG模型可以展现出比传统的生成模型更优越的性能。微调的优势在于能够利用预训练模型在广泛数据上学习到的丰富知识,从而需要较少的标注数据就可以达到较高的性能。这对于数据稀缺的任务尤其有价值。这个数据集应该包括输入和期望的输出,例如,用于情感分析的句子和它们的情感标签,或者用于翻译任务的句子对。
【AI视野·今日NLP 自然语言处理论文速览 第七十八期】Wed, 17 Jan 2024
TomRen
 985
AI视野·今日CS.NLP 自然语言处理论文速览 Wed, 17 Jan 2024 (showing first 100 of 163 entries) Totally 100 papers 👉上期速览✈更多精彩请移步主页 Daily Computation and Language Papers Deductive Closure Training of Language Models for Coherence, Accuracy, and Updatability Authors Afr
LSTM参数详解
001
 285
LSTM(长短期记忆网络)是一种特殊类型的循环神经网络(RNN),主要用于处理和预测序列数据的重要模型。
stata 逻辑回归多重共线性
08-16
在Stata中进行逻辑回归时,多重共线性是一个需要注意的问题。多重共线性指的是解释变量之间存在高度相关性的情况
————————————————

                            版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
                        
原文链接:https://blog.csdn.net/Allen1862105/article/details/136160503

多重共线性的概念
在回归分析中,我们通常关注的是如何利用一个或多个自变量(解释变量)来预测一个因变量(响应变量)。当我们使用多元线性回归模型时,理想的情况是模型中的每一个自变量都能提供独特的、对因变量有用的信息。然而,如果两个或两个以上的自变量之间存在强烈的线性关系,就会出现多重共线性的问题。

识别多重共线性
识别多重共线性通常可以通过以下几种方法:

方差膨胀因子(VIF): VIF测量了一个自变量与其他自变量线性关系强度的指标。VIF值大于10通常被认为表明强烈的多重共线性。
相关系数矩阵: 查看自变量之间的相关系数可以帮助识别它们之间是否存在强烈的线性关系。
条件指数: 条件指数是另一种识别多重共线性的方法,条件指数值超过30通常被认为是多重共线性的迹象。

多重共线性的影响
多重共线性会对回归分析产生以下几方面的影响:

参数估计的不稳定性: 当模型中存在多重共线性时,小的数据变化可能会导致参数估计的显著变动。
模型解释的困难: 由于自变量之间的高度相关性,很难区分每个自变量对因变量的独立影响。
预测能力的降低: 多重共线性可能会降低模型对新数据的预测能力。
处理多重共线性的方法
尽管多重共线性是一个棘手的问题,但有几种方法可以用来减轻或解决这一问题:

删除自变量: 如果某些自变量之间存在强烈的相关性,可以考虑删除其中一个或多个。
岭回归(Ridge Regression): 岭回归通过引入一个小的偏差来减少参数估计的方差,从而降低多重共线性的影响。
主成分分析(PCA): PCA可以用来转换自变量,生成一组彼此独立的新变量,然后在这些新变量上进行回归分析。
代码示例
处理多重共线性问题的常用方法包括使用方差膨胀因子(VIF)进行诊断,以及应用岭回归(Ridge Regression)和主成分分析(PCA)作为解决策略。下面提供了一些Python代码示例,这些示例使用了著名的statsmodels和sklearn库来演示这些技术的应用。

方差膨胀因子(VIF)的计算
首先,我们可以使用statsmodels库来计算VIF,以诊断多重共线性问题。

import pandas as pd
from statsmodels.stats.outliers_influence import variance_inflation_factor
from statsmodels.tools.tools import add_constant
 
# 假设df是一个Pandas DataFrame,包含了你的数据
# df = pd.read_csv("your_data.csv")  # 举例载入数据
 
# 给数据添加常数项,用于计算VIF
X = add_constant(df)
 
# 计算每个自变量的VIF并输出
VIFs = pd.Series([variance_inflation_factor(X.values, i) for i in range(X.shape[1])], index=X.columns)
print(VIFs)

岭回归(Ridge Regression)
岭回归是处理多重共线性的一种常用方法。以下是使用sklearn库进行岭回归的示例。

from sklearn.model_selection import train_test_split
from sklearn.linear_model import Ridge
from sklearn.preprocessing import StandardScaler
 
# 假设X和y是你的特征和目标变量
# X = df.drop('target_column', axis=1)
# y = df['target_column']
 
# 数据标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
 
# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)
 
# 应用岭回归
ridge_model = Ridge(alpha=1.0)  # alpha是正则化强度
ridge_model.fit(X_train, y_train)
 
# 模型评估
score = ridge_model.score(X_test, y_test)
print(f"Ridge Regression Score: {score}")


主成分分析(PCA)
当多重共线性问题无法通过移除变量或是其他简单方法解决时,主成分分析(PCA)可以作为一种有效的手段。

from sklearn.decomposition import PCA
from sklearn.linear_model import LinearRegression
from sklearn.pipeline import make_pipeline
 
# 数据标准化并应用PCA
pca = PCA(n_components='mle')  # 'mle'可以自动选择组件数
linear_model = LinearRegression()
model = make_pipeline(StandardScaler(), pca, linear_model)
 
# 使用PCA转换后的数据进行回归
model.fit(X_train, y_train)
 
# 模型评估
score = model.score(X_test, y_test)
print(f"PCA with Linear Regression Score: {score}")

结论
多重共线性是多元线性回归分析中常见的问题,但通过合理的方法可以有效地识别和处理。理解多重共线性的本质及其影响,选择合适的策略来减轻或避免这一问题,对于构建准确可靠的预测模型至关重要。通过综合应用VIF、相关系数矩阵、条件指数等工具,以及采取删除自变量、岭回归、主成分分析等技术手段,可以有效地解决多重共线性问题,提高模型的稳定性和预测能力。

文章知识点与官方知识档案匹配,可进一步学习相关知识
OpenCV技能树视频分析光流24467 人正在系统学习中

Orlando Allen
关注

17


7


0

专栏目录
[Python人工智能] 四十一.命名实体识别 (2)基于BiGRU-CRF的中文实体识别万字详解
杨秀璋的专栏
 193
从本专栏开始,作者正式研究Python深度学习、神经网络及人工智能相关知识。前文讲解如何实现威胁情报实体识别,利用BiLSTM-CRF算法实现对ATT&CK相关的技战术实体进行提取,是安全知识图谱构建的重要支撑。这篇文章将以中文语料为主,介绍中文命名实体识别研究,并构建BiGRU-CRF模型实现。基础性文章,希望对您有帮助,如果存在错误或不足之处,还请海涵。且看且珍惜!
多元线性回归多重共线及自变量选元
04-28
1.某软件公司的月销售额数据如表所示,其中,x为总公司的月销售额...3.对第5章思考与练习中第9题财政收入的数据,分析数据点多重共线性,并根据多重共线性剔除变量,将所得结果与用逐步回归法所得的选元结果相比较。
应用统计建模作业:ARIMA和VAR、Logit回归、多元线性回归、多重共线性、一元线性回归、异方差、自相关
02-27
应用统计建模作业:ARIMA和VAR、Logit回归、多元线性回归、多重共线性、一元线性回归、异方差、自相关
应用MATLAB对数据进行多重共线性检验的小程序
06-07
一个应用MATLAB对数据进行多重共线性检验的小程序。在进行多元线性回归前,通常需要进行多重共线性检验,以保证良好的回归效果。多重共线性的表征方法为VIF值,改程序用于自动计算VIF值。
多重共线性检验的小程序MATLAB
05-31
一个应用MATLAB对数据进行多重共线性检验的小程序。在进行多元线性回归前,通常需要进行多重共线性检验,以保证良好的回归效果。多重共线性的表征方法为VIF值,改程序用于自动计算VIF值。
多重共线性检验的MATLAB程序
05-24
一个应用MATLAB对数据进行多重共线性检验的小程序。在进行多元线性回归前,通常需要进行多重共线性检验,以保证良好的回归效果。多重共线性的表征方法为VIF值,改程序用于自动计算VIF值。
GEE:关于在GEE平台上进行回归计算的若干问题
养乐多的博客
 731
记录一些在Google Earth Engine (GEE)平台上进行机器学习回归计算的问题和解释。
RapidMiner数据挖掘2 —— 初识RapidMiner
weixin_65190179的博客
 1932
本节由一系列练习与问题组成,这些练习与问题有助于理解多个基本概念。它侧重于各种特定步骤,以进行直接的探索性数据分析。因此,其主要目标是测试一些检查初步数据特征的方法。大多数练习都是关于图表技术,通常用于数据挖掘。为此,我们将使用。请求的工作包括发现应用程序的图形用户界面(GUl),以及检查和处理示例数据集的不同元素。
GPT翻译网站的加载与使用
u010879745的博客
 738
GPT自动翻译的加载与使用
一阶段目标检测算法:流程详解
qq_39931336的博客
 533
一阶段目标检测算法通过简化流程,直接在单次前向传播中完成分类和定位任务,实现了较高的处理速度和实时性。这使得一阶段检测算法在许多实时应用场景中具有广泛的适用性。希望本文能够帮助读者深入了解一阶段目标检测算法的流程和原理。在选择目标检测算法时,应根据具体需求权衡速度和准确性,以选择最适合的算法。
SVD奇异值分解
qq_58060770的博客
 710
的对角线元素称为奇异值,( V ) 的列向量称为右奇异向量。给定一个矩阵 ( A ),我们可以计算 ( A^T A ) 和 ( A A^T ) 的特征值和特征向量。假设 ( A ) 是大小为 ( m \times n ) 的矩阵,那么 ( A^T A ) 和 ( A A^T ) 的特征值都是非负实数。),并且根据 ( A^T A ) 和 ( A A^T ) 的特征向量构建 ( U ) 和 ( V )。: 对于一个矩阵 ( A ),它的奇异值是矩阵 ( A ) 的奇异值分解 () 的矩阵,那么它有 (
基于 Python 深度学习的车辆特征分析系统,附源码
程序员徐师兄的博客
 1142
而在机动车的自动识别过程中,通过利用深度学习的算法来让计算机通过不断地获取信息要素形成信息库,可以更好的提升计算机对于车辆的识别能力。本次就是通过利用了深度学习技术结合Python开发工具来设计一款能够在线通过图片分析来识别车辆的品牌的软件。
OpenAI全新发布文生视频模型:Sora!
Talk is cheap, show me the code!
 1225
利用对视频和图像潜在代码的时空Patches进行操作的Transformer架构,最大的模型Sora能够生成一分钟的高保真视频
强化学习(TD3)
最新发布
weixin_42209537的博客
 257
这就不可避免的降低了估值函数的准确度,由于估值方法的计算依据贝尔曼方程,即使用后续状态对估计值进行更新,这种性质又加剧了精确度的下降,在每一次更新策略时,使用一个不准确的估计值将会导致错误被累加,这些贝雷架的错误会导致某一个不好的状态被高估,最终导致策略无法被优化到最优,并使算法无法被收敛。:让目标网络与当前网络更新不同步,当前网络更新d次之后再对traget网络进行更新;critic更新多次后,actor更新,critic的更新频次多于actor的。:在计算目标值时,加上扰动,从而使得评价更加准确。
线性回归:大体介绍
SYC20110120的博客
 657
βn*Xn + ε 其中,Y是因变量,X1, X2, …, Xn是自变量,β0, β1, β2, …, βn是回归系数,ε是误差项。线性回归是一种常见的统计学和机器学习方法,用于建立一个线性关系模型来预测一个连续型目标变量。它假设自变量和因变量之间存在线性关系,并且通过最小化预测值与实际观测值之间的差异来确定最佳拟合直线。它也可以用于探索自变量与因变量之间的关系,以及变量之间的相互作用。线性回归的目标是找到最佳的回归系数,使得预测值与实际观测值之间的残差平方和最小化。这个过程通常使用最小二乘法来实现。
书生浦语-模型微调
d8dongdong的博客
 472
微调作业需要多训练几个epoch,这里训练了16个epoch。
基于 InternLM 和 LangChain 搭建你的知识库(三)
weixin_55982578的博客
 1117
然后,这些检索到的文档被送入一个生成模型,如序列到序列的转换模型,这个模型利用检索到的信息来生成回答或完成给定的文本任务。例如,在回答特定的事实问题、撰写有关特定主题的文章或生成信息丰富的对话回复时,RAG模型可以展现出比传统的生成模型更优越的性能。微调的优势在于能够利用预训练模型在广泛数据上学习到的丰富知识,从而需要较少的标注数据就可以达到较高的性能。这对于数据稀缺的任务尤其有价值。这个数据集应该包括输入和期望的输出,例如,用于情感分析的句子和它们的情感标签,或者用于翻译任务的句子对。
【AI视野·今日NLP 自然语言处理论文速览 第七十八期】Wed, 17 Jan 2024
TomRen
 985
AI视野·今日CS.NLP 自然语言处理论文速览 Wed, 17 Jan 2024 (showing first 100 of 163 entries) Totally 100 papers 👉上期速览✈更多精彩请移步主页 Daily Computation and Language Papers Deductive Closure Training of Language Models for Coherence, Accuracy, and Updatability Authors Afr
LSTM参数详解
001
 285
LSTM(长短期记忆网络)是一种特殊类型的循环神经网络(RNN),主要用于处理和预测序列数据的重要模型。
stata 逻辑回归多重共线性
08-16
在Stata中进行逻辑回归时,多重共线性是一个需要注意的问题。多重共线性指的是解释变量之间存在高度相关性的情况

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值