机器学习面试题

1.统计学习相关知识

模型、策略、算法、logistic、SVM、决策树、KNN及各种聚类方法

能写出核心伪代码和优化表达式、算法(梯度下降、牛顿法、随机搜索算法(基因、蚁群等))

2.hadoop、python

3.项目:ctr、搜索、广告、垃圾过滤、安全、推荐系统等

4.推荐:各类协同过滤的好与坏

5.LDA:共轭分布。

6.Top-N推荐问题

7.MapReduce模型

8.判别模型和生成模型

9.SVM的原理,SVM的核

10.K-means,如何用hadoop实现k-means

11.naive bayes和logistic regression的区别

12.LDA的原理和推导

13.广告点击率预测,用哪些数据什么算法

14.推荐系统的算法中最近邻和矩阵分解各自适用场景

15.用户流失率预测

16.数据结构算法水题+常用机器学习算法推导+模型调优细节+业务认识

17.Kmeans必须懂 ,KNN懂原理不用写, SVM、MR和Pagerank多看看

18.数据敏感性

19.代码算法:基本算法(如快排等,需要熟练掌握) + 剑指Offer(面试经常出相似的题) + LeetCode(剑指Offer的补充,增强动手能力)

20.机器学习:李航《统计学习方法》

21.没项目经验可以参加天猫大数据比赛和Kaggle比赛

22.svm em算法推导证明

23.决策树的模型很重要,GBDT,随机森林

  1. 线性回归的梯度下降和牛顿法求解公式的推导

25.贝叶斯分类器的优化和特殊情况的处理

26.top n

27.系统设计:热门微博排行榜

28.分布式的矩阵向量乘的算法

29.最速下降法和共轭梯度法 wolfe条件 最速下降法和共轭梯度法的收敛速度如何判断

30.约束优化的KKT条件

31.SVM的原理,SVM里面的核

32.K-means,如何用hadoop实现k-means

33.naive bayes和logistic regression的区别

34.LDA的原理和推导

34.做广告点击率预测,用哪些数据什么算法

36.推荐系统的算法中最近邻和矩阵分解各自适用场景

37.用户流失率预测怎么做(游戏公司的数据挖掘都喜欢问这个)

38.一个游戏的设计过程中该收集什么数据

39.如何从登陆日志中挖掘尽可能多的信息

40.HMM可以做语句分析优化

41.决策树的模型很重要,GBDT,随机森林。

42.如果有背景,item和cf协同过滤的优缺点,如何从计算公式证明,各种情况的惩罚,hadoop上mr的实现,包括各种情况的惩罚。

43.线性回归的梯度下降和牛顿法求解公式的推导

44.贝叶斯分类器的优化和特殊情况的处理

45.实现一个分布式的矩阵向量乘的算法。。。

46.最速下降法和共轭梯度法 wolfe条件 最速下降法和共轭梯度法的收敛速度如何判断。。。
两种方法的概念答上来了 wolfe条件没准备到 收敛速度大概回答了一下 我印象中只记得共轭梯度的误差估计了

47.约束优化的KKT条件 KKT条件在边界区域的搜索行为的物理意义是什么。。。
KKT条件ok 物理意义没答上来

48.实现一个分布式的topN算法。。。

49.为什么可以使用logistic回归。。。

50.你了解的机器学习算法有哪些。。。

51.选一个你熟悉的算法 详细推导公式过程。。。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 46 批量梯度下降 47 随机梯度下降 48 具体步骤: 50 引言 72 1. 深度有监督学习在计算机视觉领域的进展 73 1.1 图像分类(Image Classification) 73 1.2 图像检测(Image Dection) 73 1.3 图像分割(Semantic Segmentation) 74 1.4 图像标注–看图说话(Image Captioning) 75 1.5 图像生成–文字转图像(Image Generator) 76 2.强化学习(Reinforcement Learning) 77 3深度无监督学习(Deep Unsupervised Learning)–预测学习 78 3.1条件生成对抗网络(Conditional Generative Adversarial Nets,CGAN) 79 3.2 视频预测 82 4 总结 84 5 参考文献 84 一、从单层网络谈起 96 二、经典的RNN结构(N vs N) 97 三、N VS 1 100 四、1 VS N 100 五、N vs M 102 Recurrent Neural Networks 105 长期依赖(Long-Term Dependencies)问题 106 LSTM 网络 106 LSTM 的核心思想 107 逐步理解 LSTM 108 LSTM 的变体 109 结论 110 196. L1与L2范数。机器学习 ML基础 易 163 218. 梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?深度学习 DL基础 中 178 @李振华,https://www.zhihu.com/question/68109802/answer/262143638 179 219. 请比较下EM算法、HMM、CRF。机器学习 ML模型 中 179 223. Boosting和Bagging 181 224. 逻辑回归相关问题 182 225. 用贝叶斯机率说明Dropout的原理 183 227. 什么是共线性, 跟过拟合有什么关联? 184 共线性:多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。 184 共线性会造成冗余,导致过拟合。 184 解决方法:排除变量的相关性/加入权重正则。 184 勘误记 216 后记 219

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值