网易互娱(杭州)AI Lab-NLP算法实习生面经-2020年10月
这是今天的第一个面试,总共有4场面试。
开头是自我介绍,然后问项目,问机器学习基础,问NLP。
问到的问题主要有:
- 项目的具体细节;
- 常见的损失函数,具体的公式,它们的原理,优点和缺点,适合于对哪些数据做处理;
- 常见的loss的优缺点;
- 问了好几个梯度下降的方法,如SGD,BGD,AdaGrad的优缺点,具体的公式(有必要做一个表格总结),推荐一个博文。
梯度下降方法详解 - 常见的优化器有哪些,优缺点是什么?
- 知识向量机是什么?为什么要将原始问题转为对偶问题?函数间隔和几何间隔是什么?为什么要用几何间隔?
- 先验知识是什么?
- Transformer模型原理和它的结构;
- Multi-Head Attention是什么,有什么作用?
- Bert模型原理和它的结构;
- 聚类算法中,DBSCAN的原理和优缺点;
- k-means原理和优缺点;
- 高斯混合模型的优缺点;
- em算法;
- 最大期望算法;
- Smooth L1 loss函数;
- 梯度爆炸和梯度消失怎么解决;
- Word2vec是什么?
- Vector向量是什么?
总之,这次面试问了特别多机器学习的基础知识,自己也记得不是特别牢固啦!
面试官也看得出来自己对常见paper可能较熟悉,对机器学习基础知识可能掌握得还不够牢固,需要加强学习。
网易一面结束啦!等结果咯!
最后!
简单问题关注我后可以帮忙解答,
祝关注+点赞的小可爱找工作顺利,获得心仪的offer