机器学习-机器学习试题(一)

前言

在网上找的一些试题及延伸的一些问题,以选择题为主,主要是关于基础理论知识,同时给出自己联想到的一些问题。当然基础问题应当包含算法本身的过程和某些推导过程。比如:LR、SVM的推导。

试题

试题1: 已知坐标轴中两点A(2,2)B(1,2),求这两点的曼哈顿距离(L1距离)。

 答案:7 。向量AB(-3,4),L1 是向量中非零元素的绝对值和。

问题延伸:机器学习算法中哪些应用了L1,哪些应用了L2.

参考链接正则化技术


试题2SVM中的核技巧(Kernal trick)的作用包括以下哪项?

A. 特征升维
B. 特征降维
C. 防止过拟合

答案:C 

核技巧使用核函数将样本从原特征空间映射到更高维的空间,使得样本在更高维的空间中线性可分。

问题延伸:SVM的核函数本质及推导过程。


试题3: 在数据预处理阶段,我们常常对数值特征进行归一化或标准化(standardization, normalization)处理。这种处理方式理论上不会对下列哪个模型产生很大影响?

 A. k-Means
 B. k-NN
 C. 决策树

答案:C

k-Means和k-NN都需要使用距离。而决策树对于数值特征,只在乎其大小排序,而非绝对大小。不管是标准化或者归一化,都不会影响数值之间的相对大小。关于决策树如何对数值特征进行划分

问题延伸:机器学习那些算法是进行归一化处理或标准化。


试题4:下面哪个情形不适合作为K-Means迭代终止的条件?

  A. 前后两次迭代中,每个聚类中的成员不变
  B. 前后两次迭代中,每个聚类中样本的个数不变
  C. 前后两次迭代中,每个聚类的中心点不变

答案:B

A和C是等价的,因为中心点是聚类中成员各坐标的均值

问题延伸:K-means的k值选择及更新,迭代终止的两个条件。


试题5关于欠拟合(under-fitting),下面哪个说法是正确的?

  A. 训练误差较大,测试误差较小
  B. 训练误差较小,测试误差较大
  C. 训练误差较大,测试误差较大

答案:C

当欠拟合发生时,模型还没有充分学习训练集中基本有效信息,导致训练误差太大。测试误差也会较大,因为测试集中的基本信息(分布)是

与训练集相一致的。

延伸问题:模型状态?怎样判定?工具是什么?

  • 12
    点赞
  • 177
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值