网易NLP面经 2020-11-02

网易NLP面经

  1. 面试职位:AI研究工程师(NLP方向)-实习生 - 技术中心030
  2. 面试方式:视频面试
  3. 个人信息:双非中流一本 软件工程 大三上学期 11月

面试流程

  • 首先问了我的空余时间怎么样 能实习多久
  • 然后开始问简历,简历上打的比赛是什么样的形式和内容
  • 然后在这个比赛中用的一篇论文解释一下思想(没答上来 忘了论文的细节了) 往简历上放的论文和技能一定要多复习 熟悉每一个细节
  • 然后讲了我在比赛中完成的任务 顺便讲了一下我们和前几名的差距所在

开始问课题项目

  • 由于不能说我的idea 故只讲了一些baseline方面的论文,主要是讲论文里面提到的两个SOTA模型,其中一个我细节又发不上来:为什么这个投票机制有效,一个句子中的比较不相关的token(比如‘的’ ‘我’)所对应的意图会是正确的吗?我这个问题曾经稍微想过,但是没多看。往简历上放的论文和技能一定要多复习 熟悉每一个细节

问NLP的知识

  • RNN中的梯度爆炸和梯度消失:没复习,忘了
  • lstm的门控机制里面用的是什么激活函数:我又忘了,只回答是把范围限制在0-1之间的那个。
  • 遗忘门怎么工作,为什么要设计遗忘门:他说我回答对了,但可以简洁一点
  • TF-IDF解释一下:我又忘了,在百度的帮助下说了一下大概(还好前几天还刚好看了莫凡python的文本搜索 复习了一下这个)
  • 为什么有了sigmod函数还要tanh函数,设计这个激活函数的原因是什么:这我真没探究过,看了一下百度好像也和梯度消失爆炸有关
  • 问了BERT:讲了一下Transformers里面的attention机制,上周工程训练一直在看这个。不过刚看完不久,还不熟悉。里面的KEY这个专有名词一直想不起来,是他提醒了我。

问有无了解过文本生成

只看了一两次,知道个大概。但确实没有做过相关的任务和调研,不过他说的seq2seq和attention结合的模型我是有了解的。他又问了这个模型的attention和transformers中的attention有什么区别,区别是什么:不知道

补充

我的大创项目,还有数模国赛省二等,全都没有问我。好歹也是用python做的嘛,这么不值钱吗呜呜呜,好歹也是爬虫相关和数学相关的啊啊啊。
校园经历也没有问我,不过他看一下至少也能知道我的成绩也还不错。
后来也问了一下我为什么来投简历,我也如实说实在boss上机缘巧合跟HR投的简历。

反馈

我问了一下他在实际工作中,NLP做了些什么:

  • 网易互娱在游戏中,在逢年过节时会有一些作诗做对联的,这时候就用到了文本生成。
  • 在公司文档很多,做一个文档的归类和关键词搜索。这时候就用到了关系抽取和命名实体识别。
  • 工业界会有数据,但肯定没有学术界的数据那么干净。有时候需要自己标数据。

他给我的的面试提了一些建议

建议

  • 第一个是不要紧张,可能我是第一次,以后就会好了
  • 第二个是一些专有名词忘了就用别的普通语言描述这个专有名词 不用一定要死磕想出来专有名词
  • 第三个是鼓励我 说我大三现在的水平还可以 很有潜力
  • 第四个是让我下次视频面试时可以跟舍友先调好设备 耳机里面有电流声
  • 第五个是跟着老师做实践时多想得深一点(因为里面有一两个问题 我稍微看一眼就过去了 没看细节)

总结

面试官人很好,感觉真的一种老鸟在面试一个新手,没有问很难很偏的题目,也没有很为难,一直都说没关系,不用紧张,最后也会鼓励我。真的是要求放的很低很低。也没问我关于leecode的题 也没有给我那种考智商的题 也没有现场手撕代码

不过一个没刷过leecode,没复习机器学习和深度学习的基础知识,也没修完所有学科的大三上学期的我,确实也就是这水平了。如果有复习和多一些时间复盘之类的应该会比较好。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值