快12

作者:蓝鲤鱼
链接:https://www.nowcoder.com/discuss/217487
来源:牛客网

一面
自我介绍了一下,然后详细聊了聊,实习经历
详细问了一下我的水货论文,简单地介绍了一下GCN
然后让我介绍一下kmeans算法,然后问我在分布式的环境下怎么实现,让我大概说一下用map reduce实现kmeans的过程,可能答的不好。
写了道算法题,和leetcode这道题一样https://leetcode-cn.com/problems/validate-stack-sequences/

二面
聊了一下比赛的内容
问了多分类和多标签分类的一些问题
写了道算法题,这道题卡了挺久的,虽然很简单。。。
以时间复杂度O(n)从长度为n的数组中找出同时满足下面两个条件的所有元素:
(1)该元素比放在它前面的所有元素都大;
(2)该元素比放在它后面的所有元素都小。
过了一段时间,面试官提示可以以空间换时间,突然开窍。

面试官很nice,主动加微信还把我送到大门口,待遇非常非常好了,哈哈哈哈

8.9
三面
社区科学部的leader面试
一上来他先自我介绍了一下,然后问我有什么问题,我问了一个很low的问题:新人成长这方面公司有什么安排
面试官用他财务自由的人生经验教育我:目光要长远想清楚要成为什么样的人、去一个公司的核心部门做核心业务、多实践掌握完整的知识体系
接下来就我就问了一些前沿一点的问题,迁移学习、强化学习、动态图的表示学习、公司的发展前景等等
快推荐算法:

一面 :

1、在另外一个公司实习相关,大概问了 20分钟,还是讲了很多东西的。从产品形态问到日活、每天的点击展示量,再到工作的具体内容,还有工程上的问题。

2、XGBoost 和 LightGBM 区别,GBDT 与 XGBoost 的区别,XGBoost 为什么收敛速度这快。 3、深度学习了解吗?讲下 RNN 和 LSTM,写 LSTM 结构和公式。讲下反向传播,能推导吗? 4、以 LR 为基础介绍 FM 和 FFM,推导 LR 和 FM

5、算法题:①硬币兑换(动态规划) ②链表倒数第 k 个节点

二面:

1、在另一个公司实习的内容。怎么保证线上和线下数据的一致性(大概20分钟)

2、介绍 FM、deepFM

3、embedding 的方法有哪些? 讲下 word2vec,知道 item2vec 吗? 在推荐里面怎么取到上下文向量

4、FM 可以做 embedding 吗?FM 怎么用到召回

5、讲下矩阵分解,知道 SVD 吗?

6、用户发生点击行为,怎么样给用户推荐视频?

bing搜索:

1、首先写一道题:从无序数组中找到中位数

2、最大后验概率和极大似然估计的具体含义,联系与区别,不带正则化的 loss 是哪个,带正则化的 loss 是哪个? 为什么? l2 正则的先验概率是什么?

3、介绍 GBDT XGBoost XGBoost 和GBDT的不同 为什么你用XGB 要是把基模型换为线性模型还会效果好吗? 为什么不用 RF? 为什么 GBDT效果比 RF 好?

4、介绍 text cnn,介绍 lstm,为什么用 cnn ,优缺点对比。对于 lstm,有什么改进吗?

5、了解 attention 吗? 那你了解什么 nlp 方向比较新的模型? 那问传统的语言模型呢,比如 hmm?

6、搜索的原理你了解多少? learning to rank 模型了解吗?
1.写代码:最大的k个数。用的最小堆,堆没有写实现只定义了一下。
写代码:有序链表的合并还是啥了。。忘记了。。也比较简单。
问项目,基于项目问问题,又讲了一遍XGBoos
2.问项目,讲了讲,有一个项目里用到了NDCG。问NDCG的意义,怎么算的。。没讲明白。。
问推荐算法都了解哪些?协同过滤。。新的方法知道哪些

一面,现场面试官出题,给我一些实际场景,让我抽象成数学问题,再去解决。链表merge和去重 LR
二面,PI controller调整推荐参数问题,也是实际场景变成数学问题,决策树,矩阵链
三面,大佬面,还被问了dp解决实际推荐业务的问题,具体忘了…
交叉面,问了好多业务问题,具体也忘了…最后是dp解决背包问题。

长度为n,只有[0,1,2]三个元素的数组,不允许计数,最低时间复杂度的排序

1、kmeans,K值选择,初始点
2、tensorflow原理,keras和他的区别
3、xgboost、正则化、怎么优化,boost算法
4、dropout原理,欠拟合,过拟合
5、分析代码复杂度,
6、类别不平衡
7、怎么预处理
8、两个栈实现队列

实现sqrt
最小二乘法原理

1.问了标准化,那些模型需要对数据进行标准化,标准化有什么用,LR中是否一定需要标准化
2.问了l1正则和l2正则
3.问了logloss和交叉熵损失函数
4.说了下梯度消失
7.问了常用的假设检验,详细讲了下卡方检验
8.做了一个题,是版本号比较,挺简单的

一颗二叉树,找到找到叶子节点的值等于给定值的那条路径

作者:包大人爱吃肉
链接:https://ac.nowcoder.com/discuss/213940?type=2&order=0&pos=7&page=1
来源:牛客网

一面。算法题:归并排序,O(1)空间复杂度
场景题,广告主给了一批高转换人群包,问我们怎么用来提升业务。
原理题,推导一个NN的dense layer weight初始化为0的情况下,会出现什么现象。

二面,算法题,找第k大,写出建堆的代码
如何判断NN是神经网络结构的问题还是优化的问题,比如学习率优化器之类的。

三面,聊天。风格类似HR面。

三个面试官都主动加了微信。

吐槽头条4面都没给自我介绍的机会,直接写两道算法题

作者:不想当菜鸟的小菜鸟
链接:https://ac.nowcoder.com/discuss/310079?type=2&order=0&pos=8&page=0
来源:牛客网

APP推荐中,为什么使用FM?
不直接计算cos相似度?
XGBoost中节点分类的方法
XGBoost中目标函数的值如何计算
XGBoost中使用的基分类器?
DSSM中的参数
准确率和召回率
最新的双塔模型

kmeans算法,然后问我在分布式的环境下怎么实现,让我大概说一下用map reduce实现kmeans的过程,可能答的不好。
写了道算法题,和leetcode这道题一样
https://leetcode-cn.com/problems/validate-stack-sequences/

二面
聊了一下比赛的内容
问了多分类和多标签分类的一些问题
写了道算法题,这道题卡了挺久的,虽然很简单。。。
以时间复杂度O(n)从长度为n的数组中找出同时满足下面两个条件的所有元素:
(1)该元素比放在它前面的所有元素都大;
(2)该元素比放在它后面的所有元素都小。
过了一段时间,面试官提示可以以空间换时间,突然开窍。

做核心业务、多实践掌握完整的知识体系

(4) 说一说Actor和critic算法吧。(我说完以后,面试官接着问)为什么需要critic网络呢,直接训练actor网络,输出最优动作有什么问题吗。
(5) 你对GAN有了解是吧,写写GAN的损失函数吧,并解释一下G和D的训练过程。
(6) 写写逻辑回归的损失函数,并且推导一下权重更新公式。(我写了以后,面试官接着问)如果不用梯度下降优化,还能怎么优化,我说了一些优化算法,他说牛顿法怎么具体更新参数的(我只知道利用了二阶梯度信息,很诚实的说具体推导不会)
(7) 写写线性回归的损失函数,并推导权重更新公式。(我写完以后,面试官接着问)XX(T)一定可逆吗?我说不是,他又问:如果有两个特征的取值一模一样,这个更新公式有问题吗?(我想了半天,觉得可能会过拟合到这两个特征上,就尝试引导面试官让我写加了正则化的权重更新公式。但是面试官说不考虑正则化,就问当前表达式有什么问题。我诚实的说不清楚。后来面试官引导我说想想刚刚我问你的问题,我才想起来这时候XX(T)不可逆,因为经过矩阵初等变换后有两行或者两列可以消去)
(8) 写一个合并K个排序链表的代码吧(本身题目不难,就是在自己定义的子函数中,我new了一个节点dummy,最后返回的是dummy->next,面试官提示说new的节点在返回之前最好把它delete掉。)

(7) 说说k-means算法和高斯混合模型的关系
(8) 说说正则化技术,为什么L1正则化可以保持参数的稀疏性(我回答了两个角度,一个是画约束图,相信大家都会,另一个是L1正则化本质上是假设样本的先验分布服从拉普拉斯分布,画出拉普拉斯分布曲线解释),然后又推了一下为什么L1正则化本质上是假设样本服从拉普拉斯分布。
(9) 说说矩阵分析里面特征值和特征向量的意义
(10) 解释一下什么是凸函数(我回答了Hession矩阵半正定就行,)面试官接着问如果函数不可导怎么判断(懵逼)
(11) 说说最优化方法有哪些,以及具体解释一下adam解决了什么问题(从动量以及学习因子自适应的角度解释了一下)
(12) 编程:编写一个随机函数发生器,随机产生(1,2,3,4)四个数,当采集了无穷多数以后,产生的数概率服从(0.1,0.2,0.3,0.4)分布。(想了五分钟后,还是不会,当时想的每次怎么产生一个伪随机数,一直想不出来)
(13) 编程,实现KaTeX parse error: Undefined control sequence: \arqt at position 3: y=\̲a̲r̲q̲t̲{x}

一面:两道题,求a.b独立且服从0-1均匀分布,求|a-b|的期望,第二题 一个先严格递增再严格递减的数组找一个数 一共1小时

二面 fm的公式推导,怎么写成矩阵形式加聊天 1个半小时

4、如何处理过拟合
5、关于你的项目你有想过用深度学习来解决么?(cnn+gru)
6、讲一下rf和lightgbm区别
7、一道算法(句子翻转,不让用split)

3、讲svm原理
4、svm损失函数是什么
5、如何处理过拟合,详细介绍下l1和l2
6、推导lr
7、lr损失函数是什么,数学含义是什么
8、你了解决策树么?讲一下
9、什么是信息增益
10、给了个例题计算信息增益
11、一道算法:二分查找

1.快速幂
2.inception系列区别
3.是否看了正则化、优化算法、的论文
4.项目时间分配
5.int a=100 printf("%s",a)

1.n个独立同分布方差是什么
2.batchsize选择 大小影响什么 如何描述波动
3.Slim
4.链表快排

2.算法题:AABBCDDEE 给一个数组,除一个数组外均为重复出现,要求找出单独的字母,时间复杂度尽可能低。(二分变种)

作者:南斯拉姆
链接:https://ac.nowcoder.com/discuss/152117?type=2&order=0&pos=20&page=1
来源:牛客网

算法: 给定一个数组,按照字母序排序
[a,b,b,c,c,c,b,a,b,c]
‘a’,’b’,’c’
[a,a,b,b,b,b,c,c,c,c]

解释 AUC 的物理意义
介绍 FFM
树模型和线性模型的对比 为什么树模型通常不需要对数据做归一化等处理?

一面:
1.两道算法题:leetcode第一题两数之和、lintcode max tree
2.简历相关:介绍腾讯实习项目(讲DeepFM、讲word2vec原理、word2vec中的优化:哈夫曼树and负采样and频繁下采样、讲协同过滤、AUC、连续值分桶)

二面:
简历相关:介绍天池比赛(讲训练验证数据划分以及原因、残差特征、lgb和xgb的选用、具体的模型融合方法、AUC、FM和LR的区别、LR的损失函数推导、交叉熵公式、AUC高一定预测的转化率准确吗?)

三面:
反向传播梯度推导(relu、sigmoid、交叉熵公式)、batchnorm有啥用为啥好用?什么是dropout?让你实现一个dropout你怎么实现?神经网络有哪些常用的损失函数?

一面:介绍项目,项目中损失函数的定义,项目细节
算法题:1.最大堆实现
2.最大连续子序列和,并返回开始和结束的位置

二面:gbdt和rf的区别,lstm各类门结构,忘记问啥了
算法题:非递归方法写二叉树后序遍历

三面:CNN原理,参数量,优点 不记得了

特征与模型的相关性如何计算与表示;
深度学习特征的hash搜索算法时间复杂度;
lightgbm的特性以及学习函数;
Adaboost学习策略;
决策树种类以及分裂方式;
RF与lightgbm的区别;
代码题:求二位矩阵中连通1的最大区域;

比赛介绍-然后开始问我怎么处理特征的,怎么选模型的,收获是什么。接着问我队伍名称是什么,最后得分怎么样(好吧,问的这么细?最后他说比赛第三名他认识原来如此)
再次介绍实习项目;
然后问了第一个实习的公司相关的情况;
给了建议:说我的简历里面的项目跨度太大,以后找其他工作的话最好能够根据岗位来写自己的项目~~(感觉很好啊)
GBDT、lightgbm、xgboost等的特性;

作者:盛晨晨
链接:https://ac.nowcoder.com/discuss/101927?type=2&order=0&pos=25&page=2
来源:牛客网

1.生成式模型与判别式模型的区别?
2.贝叶斯是什么?
3.bn为什么能加快收敛速度。bn解决了什么问题?bn是怎么计算的?基于什么计算的?训练和测试的时候有什么不同?测试时候的均值和方差是怎么来的?
3.5 池化层的作用?池化层反向传播的时候是怎么计算的?
3.6 神经网络不断发展的趋势是什么?向着什么方向发展?
3.7正则化有哪些方法?
3.8为什么输入网络之前数据要做归一化?
4.如何加快收敛速度。
5.SVM为什么能够求解对偶问题,求解对偶问题为什么和原问题一样?为什么要求解对偶问题?svm的公式是什么?如果线性不可分怎么办?
6.kkt条件具体是什么?
7.极大似然函数和极大后验函数是啥?
8.relu有什么缺点。
9.具体解释adam,二阶矩是什么?为什么要用二阶矩?
10,ax=b,求x的方法。(求逆矩阵,如果不可逆怎么办。什么情况下可逆。)
代码:判断一个二叉树是否为二叉搜索树。优化空间

1.正则化与bias,variance的关系
2.凸函数是什么,有什么良好的性质?极值是什么?
3.k个独立高斯同分布随机变量的结果是?
4.推导softmax的梯度,和tanh的梯度(求导~)
代码:
4.求两个数的汉明距离。
5.给一个二叉搜索树,和一个区间,删掉不在区间内的节点。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值