面试经历记录~

目录

奇虎360 牛客SP专场

6.23投递

笔试 7.3下午

7.4 24:00前完成即可

一面 2021-0709 16:45 40min

使用的牛客视频面试,这个部门做nlp的好像。。。好多问题人家都没法问,问了我也不会哈哈哈,感觉可能会因为不match给我拒掉。第一次记录,稍微多吐槽点东西

  1. 自我介绍
    自我介绍这块还是没太把握好详细程度,在介绍毕设和项目的时候有点太细致了,人家让我说的粗略点,我就把大概干了什么,有啥成果给人家说了一遍,感觉人家至少是听了个七七八八
    可能因为跟人家都不怎么相关,也就都没细问毕设和项目的细节。。就挑着我用到的一些模型啊之类的问了问
  2. 编程题
    这块儿算是问了我四个题吧大概,老哥出题很逗,逻辑上有点连续性,在诱导我
    (1)剑指offer 24. 反转链表
    说实在的还是又思考了一会儿,写的时候基本凭记忆,最后写完停顿了一会儿看看有没有问题,然后我说可以了。面试官挺逗,“你这好像有点问题,可以先提交一下试试”,然后提交,过了。。。。。。大哥尴尬了一下,自己写写画画说行吧。
    然后他说你算法是不是还挺好,我说稍微有些准备。
    (2) (改) HOT100 2. 两数相加
    这个题吧,没从牛客题库里调出来,我就觉得奇怪。
    题目是这样的,两个链表,每个节点存了一位数字,头结点放的是最高位,然后给这俩链表加起来返回加法结果。
    其实看着没啥,我说我拿草稿写一下。。结果一看,不大对啊,头结点怎么放最高位啊,我就跟面试官说,那这不太行啊,不能直接头结点相加,我得给先【反转链表】吧。老哥乐了,说行,这题就过了吧。
    他自己改题了。。。怪不得没从题库调。。。
    在问我下一题之前问我对排序了解吗,我说还行。之前好像还问了个什么,我好像不太知道,就没问
    (3)HOT100 15. 三数之和
    这题我想了半天。。人家问你有思路吗,我说有,就是不知道是不是合理(最优)
    他说那你讲讲吧
    那先说最简单的就是a,b两个遍历一下,先把数组放个set里,然后两重遍历,看c在不在set里就行了。
    然后优化一点的话我想的是a和b从两头往中间走,这样可能好一些,大哥说可以了,然后就无了。。
    (4)HOT100 121. 买卖股票的最佳时机
    HOT100就很久以前做了一两遍,印象不深。。这题我一开始想用dp,后来发现不需要。。然后又问了一下是写代码还是说思路,大哥说写一下代码吧,我先写的dp,写到后面关键部分求每个位置之前的最小值了,大哥知道我会就说那你讲讲思路吧,我说了一下,然后说似乎不用dp存这个数组,大哥说可以,就结束了。
    然后开始问技术
  3. 线性回归的形式,怎么拟合,然后求解方法,我说直接求梯度然后求解就可以了,大哥说那这样有啥问题吗
    我懵了。。。这样有啥问题???(哦是不是想让我说最小二乘法啊。。。他理解是我直接连立方程组求解了吧。。。。。这样好像确实说得通哈哈哈)
  4. LR和线性回归的区别,为什么用sigmoid
    我直接就说伯努利分部指数簇那些复杂回答了。。。刚说没两句,大哥懵了。。。。不知道啥是伯努利。。。。得我寻思后面他也不知道了呗,我就说sigmoid输出0-1,对于这个二分类比较合适啥啥啥的。。。然后又给手推了一遍ln(y/1-y)这个公式,写了一下sigmoid的公式
    (当初面阿里我就这么回答的,然后面试官说不够,问我知不知道指数簇。。。。。。天道好轮回)
  5. LR损失函数是啥,怎么求解
    我说对数损失函数,他好像很疑惑,我又说求对数之后算极大似然。。。然后梯度下降牛顿法啥的
  6. RNN、LSTM
    看我用到了就问了问,介绍RNN,然后为什么梯度消失爆炸,怎么解决
    LSTM是什么,怎么改进,三个门都是干啥的,怎么起作用,基本上等于是说了一下LSTM全套公式都干了啥,信息怎么传递的
    然后想问我nlp相关的问题,LSTM怎么做语句分类,我在思考的时候他以为我不会就问我在项目里怎么用了。后来还问了Transformer啥的,我说我简历后来改了,没太了解,他就没问了
  7. 问我Spark会不会,原理啥的,还有flink
    我就说只会用一点,但是都忘差不多了。。。让我说用过几个算子,我说reduce、maptopair、flatxxxx什么的,反正就不咋行
  8. 还问了一下移动项目数据预处理干了啥都,大概说了说数据质量不行、存在一些问题,要给解决
  9. 反问
    可能还有点其他的问题。。反正nlp相关的都不会,他也没纠结,其他的差不多就胡诌,大哥看差不多就结束了,反问我就问了一下是不是项目做nlp,他说是,不过也没太多说,我一时间也没太想好反问啥,就结束了。

二面 2021-0716 15:25-16:00 35min

这位面试官很有趣,不问技术,就问一些抽象的问题,考察思维方式。。。

  1. 说说自己擅长什么不擅长什么
    我说我擅长解决问题运用知识,不擅长写文档。。。
  2. 问我虎门大桥项目里面我负责的什么部分的代码
    还说了一下感觉我们应该很容易出去实习,没实习有点可惜
    我说实验室项目质量够,而且实验室不允许出去实习 (尬
  3. 说说同学眼里对自己的评价(自吹自擂)
  4. 对未来的规划是什么
    我说我喜欢提前收集信息做些准备啥的。。未来积累技术(不敢说去大厂跳槽啊)
    补充:感觉这方面没做好准备回答,当时有点踩雷了,要引以为戒,提前准备一下类似问题了!
  5. 反问
    我问怎么不问技术。。。
    部门干啥的,说是搜索下面的二级部门啥的

好像没啥了。。。反正一共就没多会儿,我还一直在看时间等着问我技术或者算法 - -
有点神奇

三面 2021-0818 16:10-16:40 30min

hr面,今天网太差了。。。断了两次,就改用4G了,不过一开始hr也鸽了我半个小时。。。从15:45推迟到16:00,结果16:10才来才开始

  1. 自我介绍
    1. 毕设
    2. 项目
  2. 讲了前两个就不让继续讲了,问作为负责人遇到过什么困难问题
  3. 有什么offer,在面其他的么
  4. 怎么看待360和其他厂,职业规划
  5. 反问
    1. 新人培养体系
    2. 工作压力怎么样:在中大厂里算比较小的(我说那挺好,我还比较在意)
    3. 部门分了么:就前面面试官就是部门同事了
  6. 感想
    感觉在问和其他大厂比较的时候还挺难回答的。。。不知道面试官会不会因为我还在面其他的就给我挂了 = =

百度 提前批

官网内推 7.12 投递 7.13被捞,进入面试流程 7.15通知7.16面试

一面 2021-0716 10:00-11:10 70min

使用百度的面试平台 如流,视频+桌面共享

  1. 介绍
    1. 介绍毕设
      算是稍微问了问一些处理数据的问题,对具体模型实现不太关心。。
    2. 介绍中移动
      面试官好像很关注算法有没有落地,我说那这样的话我再介绍一下虎门大桥
    3. 介绍虎门大桥
      说落地了,人家采取了定价策略,并且流量符合预估,也有挑战杯拿奖
  2. 问LR,让介绍一下,然后问LR适用于什么类型或者特征的数据(可能应该答高维稀疏吧,这个没太get到点,胡诌了一大堆)
  3. 问机器学习这些还有哪些用过熟悉的,我说XGBoost我用过当basline,来给你讲讲
    然后我就把我知道的包括和GBDT的对比,然后到列采样、分位数法(全局、局部分箱、分位数加权分位数)、计算增益公式什么的都说了
    问我缺失值怎么处理,能不能并行计算,我说分裂时候层内特征间可以,层间不行,得串行,树与树之间呢,肯定不行,boosting都是串行的。
    问黑白样本不平衡问题XGBoost有啥办法,我不知道了。。。就说了调整阈值、欠采样、过采样,但不是树模型的方法
    然后问我XGBoost适合什么类型的数据。。。。又问我这个问题,我还是不会,他说你可能没怎么遇到过实际问题,就过了。
    这块说一下,这大哥对XGBoost应该是挺了解的,很深入,所以他再多问一些工程上的问题我就都不懂了,我俩也达成共识,我就知道理论,实践上还是不太行的
  4. 问深度学习问题
    我说CNN、RNN都行,然后就问梯度消失爆炸的原理,怎么解决;LSTM的重点解释一下
  5. 算法题(已经过去四十分钟了,才开始算法)
    1. 求两个数组的交集(可能有重复的)
      我其实不知道答案,想了想是用两个dict存数组每个数出现的次数,然后遍历a的keys看看在不在b的keys里面,然后往answer里面append min(dict_a[i], dict_b[i])这么多的i
      问我时间和空间复杂度
      O(m+n), O(m+n)
    2. 问如果数组是排序的有没有更好的解决办法
      双指针,O(m+n)
    3. 问如果a数组特别特别长,b数组特别特别短,有什么更好的办法
      想了想那就二分查找呗,复杂度我说是nlogm,他说不对你再想想,结果我也没答对,就先写代码了。最后提示我强调说b特别短,我说那就是logm,n太小了因为是渐进复杂度就算到O里面了。
    4. 最后说因为工程很重要,所以一定要问我一个spark类似的数据处理问题
      假设有很多user,很多query,一条记录是[user_i, query_k],需要构建一个图,节点是user,边就是两个user在某个query上共同搜索的次数,所以有多少个query类型就有多少条边,边上的权重就是功公共次数
      我说应该reduceByKey,key就是query,但是我一直不知道怎么才能存成user两两之间的共同次数。后来我说重写reduceByKey在聚合时候的算法,本来相同key了之后返回的是x+y,这样对于同样的key可能所有用户就都放一起了,这样不符合要求。我就把返回的东西改了一下,存成[[u1,u2,1],[u2,u3,2],[u1,u3,1]]类似这样的结构,然后输入的时候如果x也是这种list,y是一个user,就能合并,如果两个都是个user,就返回成[[u1, u2, 1]]这样,反正大概是这意思,这个问题他虽然说时间不够了,但是抓着这个问题一直让我思考,说考察数据处理的能力。可能最后就是过了
  6. 反问
    说这个组不太卷,没有什么科研要求,就是做算法落地。增长策略部门,包括业务增长和反作弊(广告流量数据之类的),然后说全百度的钱相关的数据都要经过他们来审核判断之类的,反正吹嘘一下吧。另外他问了我一下有没有offer,可能对我还算满意?感觉可能面的还行

二面 2021-0722 20:00-21:00 60min

使用百度的面试平台 如流,视频+桌面共享

  1. 自我介绍
    讲到毕设,然后大概问了一下核心的创新点是什么
    后两个项目没让讲,就开始提问了
  2. 线性回归的损失、逻辑回归的损失公式怎么写
  3. 决策树相关,问我熟悉什么,我说XGBoost,让我说怎么做分裂的,具体是让说计算的是什么
    我就说的一阶导的平方除以二阶导加λ
  4. 集成学习大概介绍一下
  5. 集成学习的boosting和bagging,哪种对基学习器的要求更高
    这题我没答到点上,他问我说如果10个学习器准确率都不到40%,集成起来会不会更好?
    我说应该会,书上有公式,他也知道,但答案可能是不会更好,bagging对基学习器的要求更高,因为如果每个学习器的准确率都很高,那集成起来就会更好,反之可能会更差。
  6. SVM的损失函数是什么,写出原问题和对偶问题以及只有α的那个求解出来的公式(我写pad上给他看的)
  7. 问CNN, 3 × 64 × 64 3 \times 64 \times 64 3×64×64的图片,用 5 × 5 5 \times 5
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值