前言
过了半年了,半年后的我重新开始面试,似乎这半年收获了不少东西。虽然最近还是没怎么复习,感觉荒废了半个多月了。记录一下第二次面经。
加粗的就是答不上来的
面试方式:电话面试
项目
- 跨领域课题: 这个课题主题是什么,怎么跨领域槽填充,槽描述是怎么样的;
- 我的paper解决了什么问题;
- 前沿的跨领域、零次学习有哪些研究;(只回答了图像识别的经典模型)
- 一句话讲述对比的方法;
- 进行过哪些调参方式
比赛
- bert-crf和bilstm-crf的对比;bilstm和crf分别的作用;
- 数据清洗有用过哪些方式;(这个我只讲了一些,要多了解一下)
- 不同的bert预训练模型的原理、优缺点;还了解过哪些预训练模型
其他基础知识
- F1-micro 与 F1-macro区别 (宏f1 & 微f1)
这个没去了解一下,所谓老sf和ner玩家,丢死人了,我自己都觉得丢人 - 爬虫怎么爬,流程是怎么样的;怎么实现反爬
反爬?这我真不会,要是会了大一就不会那么懵了 - 数据库死锁的原理和避免
上学期学过,但是忘了,有时间复盘一下叭,但是这和nlp岗感觉关系不大 - 了解过哪些矩阵分解的方式;PCA和奇异值分解有什么区别
统计学习方面的知识,这个有时间再看一下 - python问题
一个是深复制浅复制、一个是垃圾回收还是避免死锁之类的底层问题
工程应用
小学数学应用题求解:大量应用题,比如鸡兔同笼等,如何求解答案
回答:先进行问题分类(意图识别),确定是哪种问题,再进行实体识别,捕获出文本中的关键信息,最后进行对应问题的求解
反问:这种三阶段方式,如何避免错误传播
回答:使用联合学习的方式,同时进行问题分类和实体识别
反问:如果对于非典型鸡兔同笼问题,动物的脚数不同,如何解决
回答:使用外部知识或者规则,对于不同的动物先确定脚的数量
总结
感觉问了很少深度学习的NLP上的知识,transformer、bert、lstm相关的知识都没问,激活函数、词向量、优化函数相关的也没问。我可是复习了很久的transformer知识的。
然后f1那个说不出来,丢死人了!复盘,下次再面试。