节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、算法项目落地经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
总结链接如下:
喜欢本文记得收藏、关注、点赞。更多实战和面试交流,也欢迎与我们交流
大家好,最近面试了抖音 NLP 算法岗,对面八股文我还是准备的比较充分,但代码题(数据结构和算法题),每次遇到心里都特别怕。。。
虽然这些题我见过和练习过,但紧张的都忘记了思路,这次面试面试官人品很好,给了一些引导,浪费了一些时间,最后做出来了。
一面
- 聊项目
- AUC的两种公式是?你能证明这两种等价的吗?
- BERT-CRF中,为什么要加CRF?好处是?
- self-attention为什么要用QKV三个矩阵,不用有什么问题?有没有哪个模型的Q和K矩阵是一样的?
- reinforce属于on-policy还是off-policy?为什么?
- reinforce带上baseline好处是?reinforce的loss写一下?
- 策略梯度会推导吗?简单写一下?
- 介绍大模型微调的优化方法及其区别
- 比较ChatGLM、Llama、qwen等大模型的区别
- 比较Layer Normalization(Tayernormalization)和Batch Normalization的区别
- 大模型langchain和Ilamaindex,比较两者的区别
- 描述从0到1训练大模型的流程、方法及注意事项
- 当前大模型检索存在的问题,以及如何进行RAG(Retrieval-Augmented Generation)优化的方法
代码题
代码题一般别着急写,先跟面试官说下思路,确定了再写
- 给定一个无重复整数数组,返回所有可能的排列
Input: [1,2,3]
Output:
[
[1,2,3],
[1,3,2],
[2,1,3],
[2,3,1],
[3,1,2],
[3,2,1]
]
- 矩阵置零:给定一个 m x n 的矩阵,如果一个元素为 0 ,则将其所在行和列的所有元素都设为 0
二面
- 介绍项目
- 知识蒸馏有哪几种?你觉得哪种效果最好?
- nlp的数据增强方法,主要有哪几种?每一种举个例子?
- 分类的损失函数为什么是交叉熵而不是mse?
- BERT对输入文本的长度有什么限制,为什么要限制长度呢?
- 目前有哪几种注意力机制?
- 给出emb_size, max_len, vocab_size, ff_inner_size,num_heads, 12层,求BERT参数量
项目常规问题:项目中印象最深的点,怎么解决的,提升多少
代码题
n 皇后问题
技术交流
前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~
我们建了算法岗面试与技术交流群, 想要进交流群、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2040。加的时候备注一下:研究方向 +学校/公司+CSDN,即可。然后就可以拉你进群了。
方式①、微信搜索公众号:机器学习社区,后台回复:技术交流
方式②、添加微信号:mlc2040,备注:技术交流+CSDN