三面感觉是个技术大牛在问,很深入,露珠其实算起来是第二次面试,经验准备都很少,答得很烂。
1、亿级文件,每一行是一个字符串,单个文件中,字符串没有重复,两个文件中取交集。露珠真不会,引导下说了hash的原理等。
2、亿级用户推荐视频。
3、高维稀疏的特征怎么处理。答降维。问会不会embedding,说听过word2wec里面解决词向量,但是具体不会。
4、xgboost什么的深入问了下。
5、代码题,很简单但露珠说了二分,代码写了很久,我真的好渣啊T,T。反转数组求最小。
这可能是一篇不太正常的算法岗面经(腾讯视频,一二三面)
来自专栏笔经面经
35 人赞同了文章
作者:排骨先生
链接:https://www.nowcoder.com/discuss/70671?type=0&order=0&pos=6&page=0
来源:牛客网
研究生,机器学习偏CV方向;对方偏推荐系统和NLP
不知道是不是上述原因,三次面试都问的好简单
一面(3.22,现场面,40min)
- 自我介绍
- 选一个项目介绍
- 神经网络参数初始化方式
- Gaussian,均值、方差怎么设置
- He init,原理
- 神经网络梯度消失、梯度爆炸
- 形成原因,以 BP 为例说明
- 解决方案
- ReLU,原理,能完全解决吗?
- ResNet,原理
- 过拟合的解决方案(不限于神经网络)
- Dropout,原理
- Bagging 角度,正则化角度
- 正则化,原理
- L1、L2 效果、区别、原理
- 决策树剪枝
- 逻辑回归
- 判别函数形式
- 损失函数是什么
- 如果非要使用平方损失会怎样
- 手撕:大数加法,只考虑正数
二面(3.22,现场面,30min)
- 自我介绍
- 手撕:冒泡排序
- 优化:提前终止
- 10亿int,4GB内存,找出所有不重复数字
- 哈希打散到文件,再哈希处理每个文件
- 需要过两遍哈希次,这是常规解法,还可以优化吗?
- 位图优化,省略第二轮哈希
三面(3.27,现场面,30min)
- 更喜欢或者擅长哪个领域
- 机器学习模型知道哪些
- 了解深度学习吗?RNN,CNN?
- RNN 不了解,介绍一下 CNN 吧
- 手撕:统计二叉树结点个数
- 手撕:统计二叉树叶结点个数
- 手撕:翻转单链表,递归
- 能不能一开始不遍历链表找尾指针
- 翻转过程中得到尾指针
- 为什么不判断空指针
- 程序的输入和递归过程保证了不可能是空指针
- 判断一下也不会更坏,万一别人用这个漏洞攻击呢,代码还是要完善
- 您说的对,我以后注意
- 也做过项目开发是吧,更想做算法还是开发,为什么?