机器学习mooc 作业答案参考

第一章

1. 下列哪位是人工智能之父?( A)

A    Marniv Lee Minsky

B   HerbertA.Simon

C     Allen Newell

D    John Clifford Shaw

 

2. 根据王珏的理解,下列不属于对问题空间W的统计描述是( D)

A    一致性假设

B     划分

C     泛化能力

D    学习能力

 

3. 下列描述无监督学习错误的是:(C )

A    无标签

B     核心是聚类

C     不需要降维

D    具有很好的解释性

 

4. 下列描述有监督学习错误的是:(C )

A. 有标签

B. 核心是分类

C. 所有数据都相互独立分布

D. 分类原因不透明

 

5. 下列哪种归纳学习采用符号表示方式?(A )

  1. 经验归纳学习
  2. 遗传算法
  3. 联接学习
  4. 强化学习

 

6. 混淆矩阵的假正是指:( B)

A. 模型预测为正的正样本

B. 模型预测为正的负样本

C. 模型预测为负的正样本

D. 模型预测为负的负样本

 

6. 混淆矩阵的真负率公式是为:(D )

A.  TP/(TP+FN)

B.  FP/(FP+TN)

C.  FN/(TP+FN)

D.   TN/(TN+FP)

 

7.混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是(B )

A.   1/4

B.   1/2

C.    4/7

D.   4/6

 

8混淆矩阵中的TP=16,FP=12,FN=8,TN=4,精确率是(C )

A.   1/4

B.   1/2

C.    4/7

D.   2/3

 

9. 混淆矩阵中的TP=16,FP=12,FN=8,TN=4,召回率是(D )

A.   1/4

B.   1/2

C.    4/7

D.   2/3

 

10.混淆矩阵中的TP=16,FP=12,FN=8,TN=4,F1-score是( C)

A.   4/13

B.    8/13

C.    4/7

D.   2/3

 

第二章

1单选(2分) EM算法的E和M指什么?A

 

  • A.Expectation-Maximum

  • B.Expect-Maximum

  • C.Extra-Maximum

  • D.Extra-Max

2单选(2分)

EM算法的核心思想是?A

  • A.通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。

  • B.列出优化目标函数,通过方法计算出最优值。

  • C.列出优化目标函数,通过数值优化方法计算出最优值。

  • D.列出优化目标函数,通过坐标下降的优化方法计算出最优值。

3判断(2分)

关于EM算法的收敛性,EM算法理论上不能够保证收敛。B

  • A.√

  • B.×

4判断(2分)

关于EM算法的用途,EM算法只适用不完全数据的情形。B

  • A.√

  • B.×

5.判断(2分)

Jessen不等式等号成立的条件是:变量为常数A

  • A.√

  • B.×

6.判断(2分)

Jessen不等式E(f(x)) >= f(E(x)), 左边部分大于等于右边部分的条件是函数f是凸函数,如果f是凹函数,左边部分应该是小于等于右边部分。A

  • A.√

  • B.×

7判断(2分)

EM算法因为是理论可以保证收敛的,所以肯定能够取得最优解。B

  • A.√

  • B.×

8判断(2分)

EM算法首先猜测每个数据来自哪个高斯分布,然后求取每个高斯的参数,之后再去重新猜测每个数据来自哪个高斯分布,类推进一步迭代,直到收敛,从而得到最后的参数估计值。A

  • A.√

  • B.×

9判断(2分)

EM算法,具有通用的求解形式,因此对任何问题,其求解过程都是一样,都能很容易求得结果。B

  • A.√

  • B.×

10判断(2分)

EM算法通常不需要设置步长,而且收敛速度一般很快。A

  • A.√

  • B.×

第三章

1 单选(2分)

LDA模型的隐变量Z是 A

      A.每个词对应的主题

  • B.每篇文档对应的主题

  • C.每段话对应的主题

  • D.每个词组对应的主题

2单选(2分)

LDA模型中的一个主题指:A

  • A.词集合上的一个概率分布

  • B.词组集合上的一个概率分布

  • C.整个文档上的一个概率分布

  • D.整个文档集合上的一个概率分布

3多选(3分)

LDA模型在做参数估计时,最常用的方法是AB

  • A.Gibbs采样方法

  • B.变分推断

  • C.梯度下降

  • D.Beam search

4判断(2分)

吉布斯采样是一种通用的采样方法,对于任何概率分布都可以采样出对应的样本。B

  • A. √

  • B.×

5判断(2分)

LDA模型的核心假设是:假设每个文档首先由主题分布表示,然后主题由词概率分布表示,形成文档-主题-词的三级层次。 A

  • A. √

  • B.×

6判断(2分)

Gibbs采样是一类通用的采样方法,和M-H采样方法没有任何关系。 B

  • A. √

  • B.×

7判断(2分)

关于LDA模型中的K,K的指定,必须考虑数据集合的特点,选择一个较为优化的数值。A

  • A. √

  • B.×

8判断(2分)

LDA模型是一种生成式模型A

  • A. √

  • B.×

9判断(2分)

主题建模的关键是确定数据集合的主题个数。B

  • A. √

  • B.×

10判断(2分)

主题建模本质上是:

一种新的文档表示方法,主要是通过主题的分布来表示一个文档。

一种数据压缩方法,将文档压缩在更小的空间中。A

  • A. √

  • B.×

 

 

后续持续更新ing

 

  • 6
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值