面经
学舞银
这个作者很懒,什么都没留下…
展开
-
字节跳动国际化nlp一面
上来先是两道题,说实话我都见过,但是大致思路记得,做不到bugfree,一个是括号生成,一个是旋转打印矩阵。大约半小时。都写了比较多的代码,但是细节不到位。然后聊项目,生成对抗网络训练的难点,怎么解决的,为什么使用了svm,原理?使用过其他分类方法嘛?对比过缺点吗?svm的应用场景。正则化方法有哪些?还有哪些防止过拟合的方法?这些都答上了。nlp中了解过bert嘛?(简单了解过)bpe和wordpeice是什么?(这个直接说不知道)CNN中的卷积和池化的作用是什么?(CNN的基本知识点)应该是凉了,原创 2020-06-02 16:12:41 · 730 阅读 · 0 评论 -
京东算法一面面经
京东算法一面面经京东零售推荐技术部:聊了聊基础,lr是什么loss函数推导,做多分类等等,然后讲了transformer和生成对抗网络,还有推荐的架构,算法什么的,(这部分我了解的不多)算法题两个,二分类和快排大约一个小时不到,然后就让我等下他去约二面面试官,不过因为二面面试官在忙,所以等到下次再约。后续在记录。总结:太基础了点··比较简单。...原创 2020-05-20 16:07:43 · 445 阅读 · 0 评论 -
快手算法一面凉经
快手算法一面凉经上来先问学校,是否能去实习,百度的实习经历。做了一道题,类似编辑距离,不同之处是,插入花费a,删除:b,替换:c。问如何花费最少可以从一个单词变成另一个单词。这个题我按照编辑距离的思路说了出来,但是面试官问,加入abcde变成abcdf,e替换成f的花费要比删除e,在新增一个f的花费还要多,这种情况可以满足吗?然后问了,什么情况可以使用动态规划。然后问了bert,简单讲了一下,打断了问bert的embedding和word2vec的embedding有什么不一样?问self-a原创 2020-05-19 16:36:24 · 3017 阅读 · 0 评论 -
腾讯TCC nlp算法一面
整个面试过程持续差不多45分钟,但是问的知识点非常广,感觉面了一个半小时········首先自我介绍~针对GAN做数据增强问了问原理,数据怎么去噪的,输入输出分别是什么还有很多细节,有点记不清了seq2seq如何做的,数据清洗怎么做的,为了更好的训练,做了哪些细节?字母大小写转换做了吗?怎么做的?padding技巧怎么做的,loss函数采用的是什么?decoder的输出的参照标准是什么?(这...原创 2019-11-09 10:58:46 · 493 阅读 · 0 评论 -
百度系统NLP算法一面
下午时候进行百度系统的一面,相对于之前的百度健康部门的面试官,这个面试官更“正常一点”。视频面开始自我介绍。死扣项目点,对于我说的seq2seq模型提出了很多细节问题,比如packing目的是什么,怎么做的,是逐条packing还是整体packing。还有问了我项目中的生成对抗网络和seq2seq模型的本质区别是什么。比较抠细节问题。两个算法题:链表反转(牛客原题)链表前k个节点反转,...原创 2019-11-08 22:37:12 · 319 阅读 · 0 评论 -
百度算法岗(全都是开发)一面二面面经
刚刚面试了百度医疗健康部门的日常实习算法岗,面经如下:一面(一个小时20分钟)一个小姐姐,上来先自我介绍。贪心算法介绍算法题1:最大和子数列,牛客原题,但要求用贪心和动态规划求解动态规划算法介绍python异常处理怎么做? try expect elsepython数据类型有哪些 八种列表和元祖的区别python内存管理机制介绍python如何用一条语句去除列表中的空...原创 2019-11-06 22:22:01 · 1606 阅读 · 0 评论