最近这一两周看到不少互联网公司都已经开始秋招面试了。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
最近,我们有星球成员参加了阿里大模型算法工程师的面试,根据他的回忆整理了相关的问题。供大家参考学习:
-
项目深挖:这个项目解决了什么问题?你的数据集的大小是多大?
-
项目深挖:你的数据分块策略是什么,为什么要用这样的策略?
-
项目深挖:Embedding 用的什么模型,为什么要用这个模型?
-
项目深挖:向量召回后为什么要做rerank,rerank用的什么算法,为什么要用这个?
-
项目深挖:微调数据集是什么格式,微调数据有没有做预处理,在什么环境下训练的,用了什么显卡,内存占用情况
-
项目深挖:模型出现幻觉时,一般怎么解决的
-
讲一下 Transformer 架构
-
encoder-only、decoder-only、encoder-decoder 不同架构在实际应用的使用场景
-
llama2 网络架构?使用了哪些注意力机制
-
llama2 的位置编码了解吗? 讲讲几种位置编码的异同
-
基础大模型训练流程及资源使用情况
-
了解 langchain 吗? 讲讲主要结构和主要组件,处理复杂任务链时有哪些优势。
-
显存不够时,一般怎么解决的,有哪些常见的优化方法
-
几种主流大模型的 loss了解过吗? 有哪些异同?
-
了解半精度训练吗? 展开讲讲原理和优点,在实际应用中有哪些挑战。
-
deepspeed 用过吗? 分布式训练中如何提升效率。
-
手写实现下分组注意力
-
leetcode 题:合并K个升序链表
面试总结
-
当前大模型岗位更加强调实践,如果没有做过大模型的项目且没有针对性准备过,很难回答上
-
大模型微调是很多公司的考察重点
-
几种模型的注意力机制、位置编码要熟悉。
-
RLHF 的几步多熟悉熟悉