搜集了一些关于机器学习的一些问题,可以应用于学习时的知识自检或者面试前的准备。但使用前需要注意的是:问题和答案来源于网络,可能存在不全、过时或者错误的情况,需要读者自行判断与思考。所有的答案仅提供参考价值,真正的答案需要自己从实践和探索中获取。
答案的获取方式在文章末尾。
AI算法面试题汇总(机器学习) | |
熟悉哪些距离度量的方法?写一下距离计算公式? | 解释什么是线性回归? |
为什么在一些场景中要使用余弦相似度而不是欧氏距离? | 有哪些指标,可以检查回归模型是否良好地拟合了数据? |
余弦距离是否是一个严格定义的距离? | 怎样检测线性回归模型中的过拟合? |
距离的定义?哪些度量方法不符合距离的定义 | 协方差和相关性有什么区别? |
在k-means或kNN,为什么不用曼哈顿距离? | LR和SVM的联系与区别? |
为什么在高维空间中,欧式距离的度量逐渐失效? | 非线性回归与线性回归有何不同? |
你了解哪些常见的聚类算法?对聚类了解多少? | R-squared系数有什么缺点?如何解决? |
kmeans的原理是什么? | 普通最小二乘法和ridge回归有什么区别? |
kmeans的损失函数是什么? | 普通最小二乘法和lasso回归有什么区别? |
kmeans有哪些不同的初始点选择策略,各自有什么缺陷?怎么解决? | LR与线性回归的区别与联系? |
kmeans聚的是特征还是样本?特征的距离如何计算? | 为什么使用均方根误差 (RMSE)而不是平均绝对误差 (MAE)作为线性回归的衡量指标? |
怎么确定聚类数量K? | 应用最小二乘法之间的假设是什么? |
k-means如何调优 | 线性回归和逻辑回归有什么区别? |
介绍一下手肘法? | 为什么要对线性回归使用归一化与标准化? |
K-means 中我想聚成100类 结果发现只能聚成98类,为什么? | 比较线性回归和决策树模型 |
k-means的缺点,怎么解决? | 什么是多重共线性?如何检测共线性? |
dbscan和optics是怎么解决Kmeans的缺点的? | 线性回归对数据做了哪些假设? |
kmeans,GMM,EM之间有什么关系? | 如何检查数据是否遵循所有回归假设? |
K-means和KNN算法有什么区别? | 线性分类器与非线性分类器的区别以及优劣。 |
K-means聚类的停止标准是什么? | 简单介绍下Logistics回归。 |
描述K-means算法的步骤 | 为什么我们不使用均方误差作为逻辑回归中的成本函数? |
为什么K-means算法使用欧式距离度量 | 为什么逻辑回归被称为回归而不是分类? |
比较分层聚类(Hierarchical Clustering)和K-means聚类算法 | 逻辑回归适合用于解决哪些问题? |
在使用K-means算法之前,你会怎样预处理数据? | 逻辑回归是线性模型还是非线性模型? |
列举几种情况,在这些情况下K-means算法难以取得较好效果 | 逻辑回归和线性回归的区别? |
怎样在非常大的数据集上执行K-means算法? | 当分类数据中有大量异常值时,比较SVM和Logistic 回归方法 |
可以利用K-means算法找到数据中的离群值吗? | 为什么逻辑回归要用极大似然法来进行参数估计? |
聚类算法中,如何判断数据是否被“充分”地聚类,以便算法产生有意义的结果? | |
维度灾难问题会如何影响K-means算法? | 逻辑回归与SVM区别 |
K-means算法与PCA算法之间有什么联系? | 比较决策树和逻辑回归模型 |
什么是朴素贝叶斯分类器? | 比较朴素贝叶斯和逻辑回归 |
朴素贝叶斯分类器的假设? | 逻辑回归可以用于不平衡分类问题吗? |
如何理解贝叶斯定理 | 阐述SVM相对逻辑回归的优点 |
如何根据训练集大小选择分类器? | 如何避免逻辑回归模型中的过拟合 |
为什么朴素贝叶斯如此“朴素”? | 解释随机森林如何为分类和回归问题提供输出? |
为什么说朴素贝叶斯是高偏差低方差? | 有哪些集成学习的方法? |
简单说说贝叶斯定理。 | 随机森林和决策树的关系? |
阐述朴素贝叶斯分类器的工作流程 | 随机森林算法需要剪枝吗? |
朴素贝叶斯分类器的优点是什么? | 随机森林有哪些超参数? |
朴素贝叶斯分类器的缺点是什么? | 请问GBDT和XGBoost的区别是什么? |
噪声数据对贝叶斯模型有什么样的影响? | Bagging和Boosting的区别 |
比较朴素贝叶斯算法与逻辑回归算法 | XGBoost如何寻找最优特征?是又放回还是无放回的呢? |
贝叶斯统计中,“似然”和“后验概率”有什么区别? | 为什么XGBoost要用泰勒展开,优势在哪里? |
贝叶斯统计中,“先验概率”和“后验概率”的区别? | 哪些机器学习算法不需要做归一化处理? |
什么是PCA? | 随机森林如何处理缺失值。 |
可以使用PCA进行特征选择吗? | 随机森林如何评估特征重要性。 |
PCA中的第一、第二个主成分轴是如何选择的? | 怎么理解决策树、xgboost能处理缺失值?而有的模型(svm)对缺失值比较敏感? |
为什么在执行PCA之前标准化数据很重要? | 是否有必要在随机森林中进行交叉验证? |
PCA和随机投影(Random Projection)方法有什么区别? | 随机森林如何处理缺失值? |
PCA和LDA方法有什么区别? | 如何提高随机森林的性能? |
如何执行主成分分析 (PCA)? | 随机森林生成步骤介绍 |
在大型数据集上,你会选择使用PCA吗?还是有更好的选择? | 随机森林不会发生过拟合的原因 |
PCA和t-SNE有什么区别? | 随机森林与SVM的比较 |
什么是稀疏 PCA? | 随机森林有什么优缺点 |
PCA如何用于异常检测? | 什么是SVM? |
主成分分析和独立成分分析有什么区别? | SVM中的超平面是什么? |
k-Means算法和PCA之间有什么关系? | SVM 中的支持向量是什么? |
解释什么是维数诅咒,如何解决这个问题? | 什么是hard-margin和soft-margin SVM? |
解释为什么数据在高维空间更稀疏? | 你知道哪些类型的SVM内核? |
维度灾难对训练机器学习模型有什么影响? | 为什么使用核技巧? |
知道哪些关于超参数调优的方法? | 说出SVM的一些优点? |
与PCA相比,使用LLE(局部线性嵌入 Locally Linear Embedding)有哪些优点? | 对于N维度数据集,支持向量的最小可能数量是多少?(假设数据是完全线性可分的) |
为什么在执行PCA之前居中和缩放数据很重要? | SVM中的hinge loss是什么? |
解释什么是SVD降维 | 讲述设计SVM分类器时常用的超参数 |
KNN算法是否会受到维度灾难的影响?具体描述; | 比较KNN算法和SVM算法 |
聚类和降维有什么区别和联系? | 使用SVM做分类和回归有什么区别? |
深度神经网络如何缓解维数诅咒的影响? | 如何使用SVM进行异常检测? |
解释什么是t-SNE(t-Distributed Stochastic Neighbour Embedding)方法 | 比较SVM和logistic回归 |
解释用于降维的局部线性嵌入(LLE)算法 | 比较随机森林和SVM,什么情况下优先使用随机森林(或svm)? |
线性 SVM是否会遭受维数灾难? | 比较svm和deep learning |
维度灾难会如何影响K-means算法? | 哪些情况不适合用SVM? |
解释ICA算法,分析它与PCA方法的不同之处 | 什么是多项式内核? |
描述什么是概率分布 | 决策边界和超平面有什么区别? |
伯努利分布和二项分布有什么区别? | 冗余数据会怎样影响SVM的性能? |
什么是泊松过程? | 阐述拉格朗日方法在SVM算法中的作用 |
随机变量的常用特征 | 超参数C的值如何影响 SVM? |
什么是参数估计? | 超参数gamma的值如何影响 SVM? |
参数估计的常用方法 | 支持向量数与SVM分类器性能之间是否存在关系? |
最大似然估计的优缺点 | 什么是结构化支持向量机? |
最大似然估计的一般步骤 | 说出使用支持向量机与逻辑回归进行分类时,分别的优势 |
如何将偏态分布转换为近似的正态分布? | SVM中参数C和gamma的含义 |
累积分布函数(CDF)和概率密度函数(PDF)有什么区别? | 如何使用SVM处理非线性可分数据的分类 |
贝叶斯估计和最大似然估计有什么区别? | 能直观地解释一下PAC学习理论吗? |
如何检查两个事件是否独立? | 支持向量机可以用于异常值检测吗? |
怎么检测特征中的异常值? | SVM什么时候表现不好? |
如何理解组合特征? | SVM如何选择内核? |
如何将偏态分布转变为正态分布? | 请简要说说一个完整机器学习项目的流程。 |
无监督学习可以帮助解决哪些常见的机器学习问题? | 生成式模型与判别式模型有什么区别?列出两种模型的一个例子 |
特征工程与特征选择之间有什么区别? | 什么是偏差和方差? |
解释对偶的概念。 | 为什么会发生过拟合和欠拟合,怎么解决模型的过拟合和欠拟合的问题? |
如何进行特征选择? | 为什么增加或减少样本会影响过拟合问题? |
数据预处理。 | 平均绝对误差 (MAE) 与均方误差 (MSE) 有什么区别? |
你知道有哪些数据处理和特征工程的处理? | 如何评价聚类结果的好坏(知道哪些聚类的评估指标)? |
为什么对特征的增减会影响过拟合问题? | 谈谈判别式模型和生成式模型? |
为什么约束模型的复杂程度会缓解过拟合问题? | 简单说下有监督学习和无监督学习的区别? |
为什么需要对数值类型的特征做归一化? | K近邻算法的注意事项和优缺点是什么? |
什么是组合特征?如何处理高维组合特征? | KNN算法以及流程 |
简单说下有监督学习和无监督学习的区别? | 高斯混合模型的核心思想是什么? |
数据的同方差性和异方差性有什么区别? | GMM是如何迭代计算的?为什么kmeans,GMM,EM满足上面描述的方式?(EM算法数学原理) |
使用梯度下降法或者最小二乘法求解线性回归问题,分别有哪些优势? | KNN算法是否存在损失函数? |
答案获取方式 :
方式一:https://download.csdn.net/download/2303_79001442/88318206
方式二:关注公众号,后台发送 “AI问题” 获取。