节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
总结链接如下:
喜欢记得点赞、收藏、关注。更多技术交流&面经学习,可以文末加入我们社群。
又是一年金三银四,不同以往的是,当前的职场环境已经不再是那个双向奔赴的美好时代了。
求职者在变多,HC 在变少,岗位要求还更高了,面对这样的困境,我们应该如何突围值得每个人去思考。
最近组内一直在招人,上周就面了一个做大模型算法岗的女生,让我很崩溃!
问的都是大模型和 NLP 的基础问题,回答的有点差强人意,简历也有点乱,只能说明一点准备都没做,比较有点无力感。。。
今天我分享一些大模型常考的面试题,大家一定要复习复习,免得现场尴尬。。。
- 为什么现在的大模型大多是 decoder-only 的架构?
- 解释 LLM 中token的概念
- 哪些因素会导致 LLM 中的偏见?
- 如何减轻 LLM 中的“幻觉”现象
- 解释 ChatGPT 的“零样本”和“少样本”学习的概念
- 请画图说明一下 Transformer 基本流程
- 为什么基于 Transformer 的架构需要多头注意力机制?
- LLaMA 模型为什么要用旋转位置编码?
- 你训练的时候用 float16,还是bfloat16,float32?为什么?
- 怎么解决训练使用float16导致溢出的问题?
- 预训练和微调任务有什么区别?两者的目的是什么?
- LLaMA 模型在训练过程中如何处理梯度消失和梯度爆炸问题?
- LLaMA 模型使用了哪种激活函数,为什么?,
- 介绍下lora和q-lora?
- 针对长序列,如何在Transformer中实现有效的位置编码?
- 训练数据集的过滤和去重是如何操作的?详细讲解下这些步骤的重要性及其对模型性能的潜在影响?
- 了解MOE吗?他的作用是什么?
- 解释一下大模型的涌现能力?
- 如何缓解大语言模型inference时候重复的问题?
- 对LLMs进行数据预处理有哪些常见的做法?
面试小建议
- 了解目标职位:面试前务必先搞清楚应聘职位的 JD,知道人家要招什么人,如果不够清楚,就问HR或者猎头,搞清楚才好判断自己哪些方面跟 JD 匹配,优势和短板在哪里。
- 简历优化:简历最上方应该有自我总结,最重要的信息一定要在总结里体现,还要有更多隐藏信息足以支撑,少说套话、废话。
- 精心准备自我介绍:自我介绍不要超过3分钟,内容重点就是自我总结,表述可以有所调整,避免原封不动复述。自我介绍非常重要,必须说清楚自己最突出的能力,吸引面试官注意,引导后续的面试。
- 简洁高效不啰嗦:回答问题要简介高效,直接给答案,不要铺垫,不要长篇大论。
- 关注技术热点:要关注当前最火的技术热点,比如大模型、AIGC、llama3等前沿技术。
技术交流&资料
技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。
成立了大模型面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。
方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流