第六单元 数值预测
-
通过代码”from sklearn import linear_model”引入线性模型模块,并通过代码“reg = linear_model.LinearRegression()”构造回归器对象,在训练后做预测时要调用的方法是( )。
A.reg.outlook()
B.reg.predict()
C.reg.forecast()
D.reg.guess() -
利用“linear_model.LinearRegression()”训练模型时调用.fit()方法需要传递的第一个参数是( )。
A.样本权重
B.是否考虑计算截距
C.样本特征X
D.样本标签Y -
在以下四个散点图中,其中适用于作线性回归的散点图为( )。
A.②③
B.①②
C.①③
D.③④ -
已知对一组观察值(xi,yi)作出散点图后确定具有线性相关关系,若对于y=bx+a,求得b=0.51,x=61.75,y=38.14,则线性回归方程为( )。
A.y=42.30x+0.51
B.y=0.51x+42.30
C.y=0.51x+6.65
D.y=6.65x+0.51 -
对于指数曲线y=a*e^(bx),令u=ln y,c=ln a,经过非线性化回归分析之后,可以转化成的形式为( )。
A.u=b+cx
B.y=b+cx
C.y=c+bx
D.u=c+bx -
下面关于构建模型树的说法中,错误的是( )。
A.如果当前结点t所关联的数据集Dt中样本个数小于给定阈值或者Dt中样本的目标属性取值的标准差小于给定阈值,则将该结点标记为叶子节点
B.在选择分类属性时,应选择时SDR值最小的属性
C.创建一个结点t,与结点t关联的数据集记为Dt
D.SDR代表误差的期望减少 -
下列选项中错误的是( )。
A.MSE=SSE/dfE
B.SSR=SST+SSE
C.MSR=SSR/dfR
D.MST=SST/dfT -
回归树的叶子结点对应( )。
A.一个数值
B.一个线性回归方程
C.以上都可以
D.某个类别 -
模型树的叶子结点对应( )。
A.以上都可以
B.某个类别
C.一个线性回归方程
D.一个数值 -
在比较模型的拟合效果时,甲、乙、丙、丁四个模型的决定系数R^2的值分别约为0.96、0.85、0.80和0.7,则拟合效果好的模型是( )。
A丙
B丁
C乙
D甲 -
( )采用自顶向下分而治之的思想,将训练集不断分割成子数据集来不断扩展树枝,当满足一定条件时停止树的生长。
A模型树
B回归树
C多元回归
D决策树 -
预测性能的优劣需要一定的度量来衡量,常用的度量是( )。
A MSE(均方误差)
B RAE(相对绝对误差)
C MAE(平均绝对误差)
D RSE(相对平方误差) -
R 2 R^2 R2 的值越接近1,说明回归直线对观测值的拟合程度越好。√
-
为了检验回归系数的显著性,可以使用F检验。×
-
在模型树的剪枝过程中,两个叶子结点的期望误差通过加权求和结合在一起作为子树误差。√
-
在模型树的构建过程中,应选择使SDR值最小的属性。×
-
多元回归是对一个自变量和多个因变量之间的回归分析。×
-
回归系数的检验可以采用t检验。√
-
模型树构建之后,为了避免过度拟合,需要对模型树进行剪枝。√
-
K近邻数值预测是利用一个样本的K个最相似的邻居的目标属性的取值来进行预测。√
-
模型树构建之后,为了避免过度拟合,需要对模型树进行剪枝。
-
在模型树的构建过程中,分裂属性的选择以分裂后的各个子数据集中目标属性取值的标准差为依据,将标准差作为一种误差度量,将分裂前后标准差的减少量作为误差的期望减少,称为 SDR(填写英文简称)。