机器学习理论类:
1. 写出全概率公式&贝叶斯公式
2. 模型训练为什么要引入偏差(bias)和方差(variance)? 证
3. CRF/朴素贝叶斯/EM/最大熵模型/马尔科夫随机场/混合高斯模型
CRF:https://www.imooc.com/article/27795
4.
如何解决过拟合问题?
5. One-hot的作用是什么?为什么不直接使用数字作为表示
6. 决策树和随机森林的区别是什么?
7. 朴素贝叶斯为什么“朴素naive”?
8. kmeans初始点除了随机选取之外的方法
9. LR明明是分类模型为什么叫回归
10. 梯度下降如何并行化
11. 梯度下降如何并行化
12. LR中的L1/L2正则项是啥
13. 简述决策树构建过程
14. 解释Gini系数
15. 决策树的优缺点
16. 出现估计概率值为 0 怎么处理
17. 随机森林的生成过程
18. 介绍一下Boosting的思想
19. gbdt的中的tree是什么tree?有什么特征
20. xgboost对比gbdt/boosting Tree有了哪些方向上的优化
21. 什么叫最优超平面
22. 什么是支持向量
23. SVM如何解决多分类问题
24. 核函数的作用是啥
特征工程类:
1. 怎么去除DataFrame里的缺失值?
2. 特征无量纲化的常见操作方法
3. 如何对类别变量进行独热编码?
4. 如何把“年龄”字段按照我们的阈值分段?
5. 如何根据变量相关性画出热力图?
6. 如何把分布修正为类正态分布?
7. 怎么简单使用PCA来划分数据且可视化呢?
8. 怎么简单使用LDA来划分数据且可视化呢?
深度学习类:
1. 你觉得batch-normalization过程是什么样的
2. 激活函数有什么用?常见的激活函数的区别是什么?
3. Softmax的原理是什么?有什么作用?
CNN的平移不变性是什么?如何实现的?
4. VGG,GoogleNet,ResNet等网络之间的区别是什么?
5. 残差网络为什么能解决梯度消失的问题
6. LSTM为什么能解决梯度消失/爆炸的问题
7. Attention对比RNN和CNN,分别有哪点你觉得的优势
8. 写出Attention的公式
9. Attention机制,里面的q,k,v分别代表什么
10. 为什么self-attention可以替代seq2seq
推荐系统类:
1. DNN与DeepFM之间的区别
2. 你在使用deepFM的时候是如何处理欠拟合和过拟合问题的
3. deepfm的embedding初始化有什么值得注意的地方吗
4. YoutubeNet 变长数据如何处理的
5. YouTubeNet如何避免百万量级的softmax问题的
6. 推荐系统有哪些常见的评测指标?
7. MLR的原理是什么?做了哪些优化?
计算机视觉(CV)类:
1. 常见的模型加速方法
2. 目标检测里如何有效解决常见的前景少背景多的问题
3. 目标检测里有什么情况是SSD、YOLOv3、Faster R-CNN等所不能解决的,假设网络拟合能力无限强
4. ROIPool和ROIAlign的区别
5. 介绍常见的梯度下降优化方法
6. Detection你觉的还有哪些可做的点
7. mini-Batch SGD相对于GD有什么优点
8. 人体姿态估计主流的两个做法是啥?简单介绍下
9. 卷积的实现原理以及如何快速高效实现局部weight sharing的卷积操作方式
10. CycleGAN的生成效果为啥一般都是位置不变纹理变化,为啥不能产生不同位置的生成效果