刷题笔记2

1、若一序列进栈顺序为a1,a2,a3,a4,问存在多少种可能的出栈序列( )

A 12            B 13           C 14           D 15

答案:C

2、下列属于有监督学习算法的是:()

A 谱聚类        B 主成分分析PCA        C 主题模型LDA       D 线性判别分析LDA

答案:D

3、以下是产生式模型的机器学习算法为:

A LR             B   SVM         C 神经网络           D HMM

答案:D

4、一个序列为(13,18,24,35,47,50,63,83,90,115,124),如果利二分分法查找关键字为90的,则需要几次比较 ?

A 1             B 2                C    3                      D 4

答案:B

5、已知一个二叉树前序遍历和中序遍历分别为ABDEGCFH和DBGEACHF,则该二叉树的后序遍历为?

A、DGEBHFCA            B.DGEBHFAC            C. GEDBHFCA             D.  ABCDEFGH

答案:A

其实根据前序遍历和中序遍历就能确定根节点是A,D是最下层最左边的节点。

6、以下关于共轭梯度说法正确的是

A共轭梯度需要计算hessien矩阵的逆                   B共轭梯度只需要一阶梯度即可,所以收敛速度较慢

C共轭梯度法所需的存储量小,收敛快,稳定性高的优点         D共轭梯度梯度方向与最速下降法的梯度相同

答案:C

7、以下关于准确率,召回, f1-score说法错误的是:

A准确率为TP/(TP+FP)            B召回率为TP/(TP + FN)             

f1-score为 2TP/(2TP + FP + FN)          D  f1-score为 准确率*召回率/(准确率+召回率)

答案:D

8、在贝叶斯线性回归中, 假定使然概率和先验概率都为高斯分布, 假设先验概率的高斯准确率参数为a, 似然概率的高斯准确率参数为b, 则后验概率相当于平方误差+L2正则,则其正则化参数为

a + b                    a / b              a^2 + b^2          D  a^2 / (b^2)

答案:A

没找到相关资料,谁知道跟我解释下吧

9、在以下操作中,把14,27,71,50,93,39按顺序插入树,形成平衡二叉树高度为?

A 3            B 4           C 5             D 6

答案:A

10、两个随机变量x,y,服从联合概率分布p(x,y), 以下等式成立的有

A      B   C       D

答案:AC

11、以下关于batch normalization说法正确的是

normalization的均值方差计算是基于全部训练数据的

normalization的均值方差只基于当前的minibatch

normalization对输入层的每一维单独计算均值方差

normalization的输出分布服从均值为0,方差为1的高斯分布

答案:BC

12、以下关于二项分布说法正确的是

二项分布是一种离散概率分布,表示在n次伯努利试验中, 试验k次才得到第一次成功的概率

二项分布是一种离散概率分布,表示在n次伯努利试验中,有k次成功的概率

当n很大时候,二项分布可以用泊松分布和高斯分布逼近

当n很大时候,二项分布可以高斯斯分布逼近,但不能用泊松分布逼近

答案:BC

13、以下关于random forest说法错误的是

rf中的每棵子树都是独立同分布的

rf中模型方差随着子树的增加而减少

rf主要通过增加子树之间的相关性来减少模型的方差

D  rf中模型偏差随着子树的增加而减少

答案: AD

14、在机器学习中,经常采用线性变换,将基变换为正交基, 下列矩阵式正交矩阵的是    

A 

B 

C 

D 

答案:AC

The orthogonal matrix,正交矩阵,如果一个矩阵满足以下几个条件,则此矩阵就是正交矩阵:

(1)是一个方阵

(2)和自己的转置矩阵的矩阵乘积 = 单位矩阵E

如果A为一个正交矩阵,则A满足以下条件:

1) A的转置矩阵也是正交矩阵

2)  (E为单位矩阵)

3) A的各行是单位向量且两两正交

4) A的各列是单位向量且两两正交

5) (Ax,Ay)=(x,y) x,y∈R

6) |A| = 1或-1

7)  ,A的转置矩阵等于A的逆矩阵

15、关于x,y的函数f(x,y)=x*e^(-x^2-y^2),(x,y∈R),则该函数有_____个极小值点

A 0                 B 1               C 2                    D 3

答案:B

16、随机变量X1,X2...X100都服从[1,9]的均匀分布,则(X1+X2+...+X100)/100近似服从

A 高斯分布           B 泊松分布         C 均匀分布            D 指数分布

答案:高斯分布

对于服从均匀分布的随机变量,只要n充分大,随机变量 就服从均值为零,方差为1的正态分布。

17、某二叉树有2000个结点,则该二叉树的最小高度为()

A 10             B 11              C 12                 D 13

答案:B

节点与深度的关系:2^k -1 =n

18、下列方面不可以防止过拟合的是()

加入正则项            增加样本         建立更加复杂的模型     Bootstrap重采样

答案:C

19、使用中根遍历一棵二叉树得到E A C K F H D B G,则先根遍历将得到()

A    FAEKCDBHG                       B    FAEKCDHGB              C  EAFKHDCBG          D   FEAKDCHBG

答案:B

20、以下哪些模型是无向图

A 朴素贝叶斯          B LR           C  CRF        D HMM

答案:BC

21、协同过滤经常被用于推荐系统, 包含基于内存的协同过滤, 基于模型的协同过滤以及混合模型, 以下说法正确的是

A基于模型的协同过滤能比较好的处理数据稀疏的问题

B基于模型的协同过滤不需要item的内容信息

C基于内存的协同过滤可以较好解决冷启动问题

D基于内存的协同过滤实现比较简单, 新数据可以较方便的加入

答案:AD

22、以下关于神经网络说法正确的是

A神经网络可以实现非线性分类

B神经网络可以实现线性分类

C神经网络的每层神经元激活函数必须相同

D神经网络的每层神经元激活函数值阈必须在[-1,1]

答案:AB

23、以下为防止过拟合的方法的是

A增加样本         L1正则    C交叉验证     D增加复杂特征

答案:ABC

24、CRF模型可以用来做专名识别, 语义消歧等, 以下关于CRF模型说法正确的是

A   CRF模型是产生式模型            B   CRF模型是判别式模型         C  CRF模型的图模型为无向图    CRF模型的图模型为有向图

答案:BC

25、以下属于凸函数的是()

e^x              B  e^a         C  log(x)        D  f(x, y) = x²/y

答案:AD

26、以下说法正确的是

XOR问题不能简单的用线性分类解决

XOR问题可以通过2层感知器解决

XOR可以通过LR模型解决

XOR可以通过单层感知器解决

答案:AB

27、以下是基于图的特征降维方法的是

A   LE(Laplacian eigenmap)                                B  LLE(local linear embedding)

C  PCA                                                                 D  KL

答案:AB
Principal Component Analysis(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。

Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一种有监督的(supervised)线性降维算法。与PCA保持数据信息不同,LDA是为了使得降维后的数据点尽可能地容易被区分!

Locally linear embedding(LLE)[1]是一种非线性降维算法,它能够使降维后的数据较好地保持原有流形结构。LLE可以说是流形学习方法最经典的工作之一。很多后续的流形学习、降维方法都与LLE有密切联系。

Laplacian Eigenmaps(拉普拉斯特征映射)看问题的角度和LLE有些相似,也是用局部的角度去构建数据之间的关系。它的直观思想是希望相互间有关系的点(在图中相连的点)在降维后的空间中尽可能的靠近。Laplacian Eigenmaps可以反映出数据内在的流形结构。

其中最后后两种是基于图的特征降维方法。

28、使用LR来拟合数据, 一般随机将数据分为训练集和测试集。 则随着训练集合的数据越来越多, 以下说法正确的是

A测试集上的测试误差会越来越大

B测试集上的测试误差会越来越小

C训练集上的训练误差会越来越小

D训练集上的训练误差会越来越大

答案:BD

前提:测试数据不变,只增加训练数据

1.减少过拟合,泛化更好,测试误差变小

2.训练集多样性增加,数据输入分布改变,训练误差变大

29、有A,B 两个国家,人口比例为4:6,A国的犯罪率为0.1%,B国的为0.2%。现在有一个新的犯罪事件,发生在A国的概率是?

A0.15              B0.25                 C 0.35            D 0.45

答案:0.25

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
"Labuladong"是一个著名的算法题解博主,他的刷题笔记非常受欢迎。他的笔记具有以下几个特点: 1. 思路清晰:Labuladong的刷题笔记总是能够很清晰地阐述解题思路。他善于将复杂的问题简化为易于理解的小问题,并通过逐步引入关键概念和方法,帮助读者理解并掌握解题思路。 2. 逻辑严谨:Labuladong的刷题笔记经过深思熟虑,逻辑严谨。他会从问题的定义开始,逐步引入相关的概念和解题思路,循序渐进地解决问题。这种严谨的逻辑结构有助于读者理解和消化算法的核心思想。 3. 举例详细:Labuladong的刷题笔记通常会通过具体的例子来说明解题思路。这种举例的方式不仅能够帮助读者更好地理解解题方法,还可以帮助读者更好地应用这些方法解决其他类似的问题。 4. 知识点整合:Labuladong的刷题笔记不仅仅是一个题解,而是将相关的算法知识点整合起来,构建出一个完整的学习体系。他会引入一些底层的算法原理,将不同的解题方法进行比较和总结。这种整合的方式能够帮助读者更好地理解和掌握算法的本质。 总之,Labuladong的刷题笔记以其思路清晰、逻辑严谨、举例详细和知识点整合等特点,为广大读者提供了一种深入学习和理解算法的有效途径。通过阅读他的刷题笔记并进行实践,读者能够提高解题能力,并在面对各种算法问题时能够找到正确、高效的解决方法。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值