# 机器学习概论
## 判断题
VC维是用来解决假设空间里的无限假设空间问题。 [正确]
基于实例的迁移学习的基本假设是源领域和目标领域中数据形式是相同的。[正确]
在所有聚类算法中,同一个对象只能属于一个类 [错误]
Boosting每一轮会增加分类错误样本的权重。[正确]
决策树ID3算法找到的是假设空间的局部最优解。[正确]
为了避免评估的偏差(bias),训练集和测试集应该相互独立。[正确]
高斯混合模型中各个分布是独立同分布的。[错误]
伯努利分布下很容易计算置信区间,但正态分布下就难以计算置信区间。[错误]
聚类的相似度度量需要满足传递性 [正确]
不可知学习器、一致学习器、VC维等可以用来计算样本的复杂度。[正确]
一般来讲,基于实例的迁移学习将数量较多的源领域数据的知识迁移到目标领域。[正确]
核函数需要通过显式的输入空间到特征空间的映射来表示。[错误]
隐马尔可夫模型主要要解决评估问题和解码问题两个问题。[正确]
EM问题可以求解缺少标签情况下的极大似然。[错误]
支持向量机属于贝叶斯分类器。[错误]
## 单选题
如果一个维度为d的样本不能被假设空间打散,那么假设空间的VC维为?[D]
A d+1
B d-1
C d
D 不确定 [选D]
VC维是用来解决什么假设空间里的问题的?[C]
A 不可知空间
B 有限假设空间
C 无限假设空间
D 样本空间
集成学习对弱监督器的要求是?[A]
A 效果要好于随机
B 任意效果即可
C 效果一定大于1/2
D 效果可以等于随机
下列哪项是贝叶斯公式[B]
A P(h|D)=P(D|h)P(D)/P(h)
B P(h|D)=P(D|h)P(h)/P(D)
C P(h|D)=P(D)P(h)/P(D|h)
D P(h|D)=P(D)P(h)
下列哪项是极大后验假设
A h=argmax(h){P(D|h)P(h)}[选A]
B h=argmax(h){P(h|D)P(h)}
C h=argmax(h){P(D|h)P(D)}
D h=argmax(h){P(D|h)}[不选D]
为了避免评估的偏差(bias),训练集和测试集应该?[A]
A 相互独立
B 训练集样本数远远大于测试集
C 训练集样本不包含测试集样本即可
D 同分布
Boosting每一轮会增加哪些样本的权重? [B]
A 分类正确的
B 分类错误的
C 样本数少的类别
D 样本数多的类别
下列说法正确的是[A]
A 加权多数可以用于不同学习器。
B Bagging一般用于融合不同学习器。
C Bagging每一轮使用的训练集相同。
D Boosting的每一轮之间可以并行。
EM算法的收敛条件可以是?[A]
A 每一轮参数变化小于某一值
B 迭代到一定轮次之后
C 分类正确率到达一定值
D 错误率降低到一定值
我们通过分情况讨论,讨论了不可知学习器、一致学习器、VC维等,可以用来计算?[B]
A 出错界限[不选A]
B 样本复杂度
C 样本空间维度
D 假设空间维度
构建 KD-Tree 时,确定分割维度后分割的值按照哪个统计指标更合适[C]
A 均值
B 众数
C 中位数
D 方差
支持向量机属于[B]
A 基于实例的分类器
B 最大间隔分类器[]
C 神经网络分类器[不选C]
D 贝叶斯分类器 [不选D]
利用 KD-Tree 查询给定数据点的最近邻居时,以下哪种情况可以被剪枝[B]
A 当前树节点所包含数据的边界距离查询点的距离小于已知最小距离[不选A]
B 当前树节点所包含数据的边界距离查询点的距离大于已知最小距离
C 当前树节点所包含数据的边界距离查询点的距离大于已知最大距离
D 当前树节点所包含数据的边界距离查询点的距离小于已知最大距离
前向算法的复杂度是多少?[A]
A O(N^2T)
B O(NT)
C O(TN^T)
D O(NT^2)
EM问题可以求解哪些情况下的极大似然?[A]
A 缺失数据
B 含有隐变量[不选B]
C 数据不符合正态分布
D 缺少标签 [不选D]
我们已知用户的购物行为和社交网络两个领域的知识,我们通过构建两个任务并且共享用户偏好的学习,这种迁移学习属于?[C]
A 基于实例的迁移学习[不选A]
B 基于特征的迁移学习[不选B]
C 基于参数的迁移学习
D 深度迁移学习
对于一个r维的空间,假设空间H是一个线性平面,那么H的VC维是?[C]
A r[不选A]
B r-1
C r+1
D 无穷[不选D]
将一个能够区分不同动物的模型迁移到区分不同鱼的任务中,属于哪一种迁移学习?
A 基于实例的迁移学习[不选A]
B 基于特征的迁移学习[选B]
C 基于参数的迁移学习
D 深度迁移学习
下列哪项是极大似然假设
A h=argmax(h){P(D|h)P(h)}[不选A]
B h=argmax(h){P(h|D)P(h)}[不选B]
C h=argmax(h){P(D|h)P(D)}[不选C]
D h=argmax(h){P(D|h)}
最小均方误差算法用梯度下降法训练时,更新权重所乘的小常数 c 作用是
A 防止溢出[不选A]
B 控制学习速度[选B]
C 平滑误差计算
D 筛选特征
下列关于Boosting的说法正确的是
A 每一轮提高错误样本的权重。[选A]
B 每一轮降低错误样本的权重。[不选B]
C 不容易受到噪声影响。
D 不会过拟合。[不选D]
如果任意一个有限集合样本集合X能够被假设空间H打散,那么这个假设空间的VC维是?
A 不存在[不选A]
B 0
C 1
D 无穷[选D]
EM算法中,计算新一轮迭代的模型参数是在哪一步?
A 参数初始化阶段[不选A]
B E步骤[不选B]
C M步骤[选C]
D 反向传播阶段
参数p的N%置信区间是一个以N%的概率包含p的区间,那么N%是什么?
A 区间面积[不选A]
B 置信度[选B]
C 标准差
D 准确率[不选D]
如果用 X 表示样例,Y 表示标签,无监督学习关注的分布是
A P(Y)[不选A]
B P(Y|X)[不选]
C P(X)
D P(X|Y)