最近已有不少大厂都在秋招宣讲,也有一些已在 Offer 发放阶段了。
节前,我们邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对新手如何入门算法岗、该如何准备面试攻略、面试常考点、大模型技术趋势、算法项目落地经验分享等热门话题进行了深入的讨论。
总结链接如下:
喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们星球
今天分享我们一位星球成员的上岸之旅,最终拿下快手大模型算法岗:
这段时间面了很多算法和大模型的岗位,能走到最后一轮的寥寥无几,几乎全军覆没,感谢快手给了我上岸的机会,太幸运了!
算法岗真的要好好研究明白才行,问的内容全又细,面试官几乎全程直接提问题,没有什么闲聊内容。
分享最近一段时间面试字节、小红书、快手等大厂的大模型&算法岗面试题,大部分会经常提及,童鞋们可以对照查漏补缺奥!
面试题
-
目前主流的开源模型体系有哪些?
-
如何让大模型处理更长的文本?
-
什么情况下用Bert模型,什么情况下用LLaMA、ChatGLM类大模型,咋选?
-
LLMs输入句子长度理论上可以无限长吗?
-
什么是LLMs复读机问题?
-
为什么会出现LLMs复读机问题?
-
如何缓解LLMs复读机问题?
-
为何现在的大部分是Decoder only结构?
-
涌现能力是啥原因?
-
prefix LM和causal LM的区别是什么?
-
请简述什么是大模型,以及它与传统模型的主要区别是什么?
-
谈谈你对 Transformer 模型的理解,以及它在自然语言处理中的应用。
-
你如何评估大模型的性能?有哪些常用的评估指标?
-
请描述一下你如何对大模型进行优化,以提高其性能和效率。
-
你是否有过使用或开发大模型的经验?请分享一个具体的案例。
-
面对大模型训练和推理所需的庞大计算资源,你有什么解决方案或建议?
-
请简述 Transformer 的基本结构和工作原理。
-
多头自注意力机制的作用是什么?
-
为什么Transformer使用位置编码(Positional Encoding)?
-
如何优化 Transformer 模型的性能?
-
Transformer 在自然语言处理中有何应用?
-
谈谈你对 Transformer 未来发展的看法?