视源NLP面经 2021-05-12

前言

过了半年了,半年后的我重新开始面试,似乎这半年收获了不少东西。虽然最近还是没怎么复习,感觉荒废了半个多月了。记录一下第二次面经。
加粗的就是答不上来的

面试方式:电话面试

项目

  • 跨领域课题: 这个课题主题是什么,怎么跨领域槽填充,槽描述是怎么样的;
  • 我的paper解决了什么问题;
  • 前沿的跨领域、零次学习有哪些研究;(只回答了图像识别的经典模型)
  • 一句话讲述对比的方法;
  • 进行过哪些调参方式

比赛

  • bert-crf和bilstm-crf的对比;bilstm和crf分别的作用;
  • 数据清洗有用过哪些方式;(这个我只讲了一些,要多了解一下)
  • 不同的bert预训练模型的原理、优缺点;还了解过哪些预训练模型

其他基础知识

  • F1-micro 与 F1-macro区别 (宏f1 & 微f1)
    这个没去了解一下,所谓老sf和ner玩家,丢死人了,我自己都觉得丢人
  • 爬虫怎么爬,流程是怎么样的;怎么实现反爬
    反爬?这我真不会,要是会了大一就不会那么懵了
  • 数据库死锁的原理和避免
    上学期学过,但是忘了,有时间复盘一下叭,但是这和nlp岗感觉关系不大
  • 了解过哪些矩阵分解的方式;PCA和奇异值分解有什么区别
    统计学习方面的知识,这个有时间再看一下
  • python问题
    一个是深复制浅复制、一个是垃圾回收还是避免死锁之类的底层问题

工程应用

小学数学应用题求解:大量应用题,比如鸡兔同笼等,如何求解答案
回答:先进行问题分类(意图识别),确定是哪种问题,再进行实体识别,捕获出文本中的关键信息,最后进行对应问题的求解
反问:这种三阶段方式,如何避免错误传播
回答:使用联合学习的方式,同时进行问题分类和实体识别
反问:如果对于非典型鸡兔同笼问题,动物的脚数不同,如何解决
回答:使用外部知识或者规则,对于不同的动物先确定脚的数量

总结

感觉问了很少深度学习的NLP上的知识,transformer、bert、lstm相关的知识都没问,激活函数、词向量、优化函数相关的也没问。我可是复习了很久的transformer知识的。
然后f1那个说不出来,丢死人了!复盘,下次再面试。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值