1.下面对逻辑斯蒂回归(logistic regression)描述不正确的是( )
-
A.在逻辑斯蒂回归中,能够实现数据特征加权累加
-
B.逻辑斯蒂回归中所使用Sigmoid函数的输出形式是概率输出
-
C.逻辑斯蒂回归是一种非线性回归模型
-
D.在逻辑斯蒂回归中,输入数据特征加权累加值在接近−∞或+∞附近时,模型输出的概率值变化很大
2逻辑斯蒂回归模型(logistic regression)属于( )
-
A.无监督学习
-
B.半监督学习
-
C.监督学习
-
D.以上都不是
3潜在语义分析属于( )
-
A.半监督学习
-
B.以上都不是
-
C.监督学习
-
D.无监督学习
4线性区别分析属于( )
-
A.以上都不是
-
B.无监督学习
-
C.监督学习
-
D.半监督学习
5逻辑斯蒂回归函数也可被称为( )
-
A.交叉熵回归模型
-
B.最大后验估计回归模型
-
C.最大似然估计回归模型
-
D.对数几率回归(log-odds regression)
6.在隐性语义分析中,给定M个单词和N个文档所构成的单词-文档矩阵(term-document)矩阵,对其进行分解,将单词或文档映射到一个R维的隐性空间。下面描述不正确的是( )
-
A.单词和文档映射到R维隐性空间后,单词和文档具有相同的维度
-
B.通过矩阵分解可重建原始单词-文档矩阵,所得到的重建矩阵结果比原始单词-文档矩阵更好捕获了单词-单词、单词-文档、文档-文档之间的隐性关系
-
C.这一映射过程中需要利用文档的类别信息
-
D.隐性空间维度的大小由分解过程中所得对角矩阵中对角线上不为零的系数个数所决定
7线性区别分析(linear discriminant analysis, LDA)在进行数据降维时,原始高维数据被映射到低维空间中后需要达到的优化的目标是( )
-
A.只要保证同一类别样本尽可能靠近
-
B.既要保证不同类别样本尽可能靠近,也要保证同一类别样本尽可能彼此远离
-
C.只要保证不同类别样本尽可能彼此远离
-
D.既要保证同一类别样本尽可能靠近,也要保证不同类别样本尽可能彼此远离
8LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是( )
-
A.PCA和LDA均是基于监督学习的降维方法
-
B.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
-
C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
-
D.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
9下面对逻辑斯蒂回归(logistic regression)和多项逻辑斯蒂回归模型(multi-nominal logistic model)描述不正确的是( )
-
A.两者都是监督学习的方法
-
B.两者都可被用来完成多类分类任务
-
C.多项逻辑斯蒂回归模型也被称为softmax函数
-
D.逻辑斯帝回归是监督学习,多项逻辑斯蒂回归模型是非监督学习
10逻辑斯蒂回归和线性区别分析均可完成分类任务,下面描述正确的是( )
-
A.以上都不正确
-
B.逻辑斯蒂回归在降维所得空间中进行分类,线性区别分析在数据原始空间进行分类
-
C.逻辑斯蒂回归和线性区别分析都是直接在数据原始空间进行分类
-
D.逻辑斯蒂回归可直接在数据原始空间进行分类,线性区别分析需要在降维所得空间中进行分类