机器学习-测试一(学习通)

一、单选题 (题数:10,共 95.0 分)

1Nave Bayes是一种特殊的Bayes分类器,特征变量是X,类别标签是C,它的一个假定是()(10.0分)10.0 分
A、
各类别的先验概率P©是相等的
B、
P(X|C)是高斯分布
C、
以0为均值,sqr(2)/2为标准差的正态分布
D、
特变量X的各个维度是类别条件独立随机变量
正确答案: D 我的答案:D
答案解析:

2
下面关于ID3算法中说法错误的是( )

(5.0分)5.0 分
A、
ID3算法是一个二叉树模型

B、
选取信息增益最大的特征,作为树的根节点

C、
ID3算法要求特征必须离散化

D、
信息增益可以用熵,而不是GINI系数来计算

正确答案: A 我的答案:A
答案解析:

3以下属于欧式距离特性的有()(10.0分)10.0 分
A、
不受量纲影响的特性
B、
旋转不变性
C、
尺度缩放不变性
D、
考虑了模式的分布
正确答案: B 我的答案:B
答案解析:

4以下属于不凸函数的是( )(10.0分)10.0 分
A、
x的平方
B、
x的立方
C、
log x
D、
e的x次方
正确答案: D 我的答案:D
答案解析:

5以下不属于影响聚类算法结果的主要因素有()(10.0分)10.0 分
A、
分类准则
B、
模式相似性测度
C、
已知类别的样本质量
D、
特征选取
正确答案: C 我的答案:C
答案解析:

6以下哪些方法不可以直接来对文本分类?(10.0分)10.0 分
A、
Kmeans
B、
决策树
C、
支持向量机
D、
KNN
正确答案: A 我的答案:A
答案解析:

7影响基本K-均值算法的主要因素有()(10.0分)10.0 分
A、
样本规模
B、
模式相似性测度
C、
聚类准则
D、
样本输入顺序
正确答案: B 我的答案:B
答案解析:

8关于logit回归和SVM 不正确的是( )(10.0分)10.0 分
A、
Logit回归的输出就是样本属于正类别的几率,可以计算出概率。
B、
SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,应该属于结构风险最小化。
C、
SVM可以通过正则化系数控制模型的复杂度,避免过拟合。
D、
Logit回归本质上是一种根据样本对权值进行极大似然估计的方法,而后验概率正比于先验概率和似然函数的乘积。logit仅仅是最大化似然函数,并没有最大化后验概率,更谈不上最小化后验概率。
正确答案: D 我的答案:D
答案解析:

9在其它条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题( )(10.0分)10.0 分
A、
SVM算法中使用高斯核/RBF核代替
B、
减少神经网络隐藏层节点数
C、
删除稀疏的特征
D、
增加训练集数量
正确答案: A 我的答案:A
答案解析:

10
一个二进制源X发出符号集为{-1,1},经过离散无记忆信道传输,由于信道中噪音的存在,接收端Y收到符号集为{-1,1,0}。已知P(x=-1)=1/4,P(x=1)=3/4,P(y=-1|x=-1)=4/5,P(y=0|x=-1)=1/5,P(y=1|x=1)=3/4,P(y=0|x=1)=1/4,求条件熵H(Y|X)( )

(10.0分)10.0 分
A、
0.5372

B、
0.5273

C、
0.3275

D、
0.2375

正确答案: D 我的答案:D

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值