大模型算法岗位面试真题汇总:含实习机会,建议收藏!

节前技术群邀请了一些参加大模型面试(含实习)的同学,分享他们面试算法工程师(大模型方向)的宝贵经验。

今天我继续整理,分享给大家,希望对后续找工作的有所帮助。喜欢记得点赞、收藏、关注。更多技术细节&面试经验,可以加入我们星球。

网易

大模型日常实习就中了,我要去网易做大模型实习生啦。

一面

1.文本生成的几大预训练任务?

2.多模态中常见的sota模型,clip为什么效果好

3.多模态大模型有哪些?介绍一下stable diffusion的原理

4.chatglm的原理,其结构,其训练过程

5.instructGPT的原理,讲讲rlhf和reward

6.手写一个文本生成的生成器

二面

1.讲讲T5和Bart的区别,讲讲bart的DAE任务

2.讲讲Bart和Bert的区别,分析下为什么MLM任务能在预训练任务界占这么重要的地位。

3.讲讲项目中对比学习的应用,解释下什么是曝光偏差

4.对比学习负样本是否重要?负样本构造成本过高应该怎么解决

5.项目中提出的利用对比学习解决曝光偏差问题的想法来源?为什么能想到这么做,这么做带来的收益如何?

6.有没有微调过大模型,介绍一下lora的原理和ptuning的原理

7.讲下自己认为自己做事和学习上的缺点与不足

自我感觉答的不错,面试官在面试过程中频频点头,应该印象不错。面完第二天就收到offer了。

美团

岗位:大模型算法岗(日常实习)

一面

面试官是一名温柔小姐姐吖,下面是面试过程:

1.自我介绍 (让我开一下摄像头)

2.聊聊你自我介绍中提到的自己的论文

3.论文录用概率大吗(论文在投)

4.AI大模型的训练过程

5.大模型的优缺点(以及你自己的角度体验到的)

6.大模型的用户体验感最注重哪几个方面

6-2.你自己使用过程中,大模型你感觉体验感怎么样

7.目前市面上有哪些大模型

8.你的最大优点和缺点

9.你认为这个岗位的职责,以及需要具备哪些能力

10.聊了聊大模型在美团业务中可以用来做什么

11.你用过大模型哪些功能?

12.最快什么时候能入职

我提问:1.岗位待遇 2.有几面 2,业务面和HR面 3.有转正机会吗

理想

大模型面经

一面

自我介绍,讲一下大模型应用项目(我讲的nl2sql的项目)

项目背景,总体思路,解决什么问题,指标是什么

细节拆分:

1.数据集怎么构建的,什么规模,有没有质量评估

2.模型底座是什么,这些不同底座什么区别,什么规模

3.训练方法,用的什么sft,有什么不同,有什么优缺点,原理上解释不不同方法的差别

4.评估指标是什么,这些指标存在哪些问题

5.模型推理是怎么做的,有没有cot,tot等等,还是单轮

6.模型可控性如何实现,怎么保证可控性

7.模型部署的平台,推理效率怎么样,如何提升推理效率

8.有没有上线,面临什么问题,怎么解决

9.给一个总的输入输出样例,每一步包含什么prompt,多轮推理每一步输出什么结果,模拟一下,数据集格式是否要调整成这样,数据形式是什么,怎么拆分成多轮形式等等。。

到这里项目差不多了大概问了45min

然后是八股+开放式问题 1.大模型前景

2.大模型主要存在的问题和解决思路(幻觉,定向编辑,继续训练等等)

3.大模型加速框架了解多少,知不知道原理 如何进行加速优化

4.为什么要用大模型做传统结构化解析任务 你对用大模型做这些事有什么看法

到这差不多1小时

最后是能不能实习,对最新的研究了解多少,看过多少最新论文等等

我本以为结束了,但是,最后我们来做一道题吧

题我忘了,好像是一个迭代法求根的题,反正当时已经神志不清了,好像没ac

二面

很简单,感觉是部门leader,简单问了问项目,普通八股,大模型上线会有什么问题,占用多少资源,怎么优化等等,比一面简单太多

长亭科技

岗位:大模型

面试官挺和蔼的,整体偏向互相交流学习,没答出来的他还说没关系,这是个不断学习的过程。不是压力面真好!

面试内容偏向八股、基础知识,项目和论文问的少。

自我介绍

介绍Transformer

有哪些encoder-only、decoder-only、encoder-decoder结构

介绍BERT(项目、论文、实习里用的都是bert,没用过其他结构)

我目前的研究基本上用BERT+线性层之类的来做,问我LLM出现后分类任务会被取代吗?

BERT、GPT如何分词,有什么区别

常见的位置编码

BERT里的可学习参数矩阵来表示位置编码,对于长文本呢》超过这个长度怎么办?

Attention,为什么有Multi-head,作用是什么。BERT里head数是多少,我说bert-base是12,反问为啥是这个数,是基于啥算法得到的还是经验设计的,我猜测是通过实验观察得到

面试官偏向用GPT系列的decoder结构,对BERT这些记不太清了,所以一直在问这方面的内容,我也表示了确实主要用的还是BERT,但目前的大模型也确实都基于decoder架构来做。

介绍项目的收获与其中的难点。

具体想做算法哪方面,一开始没理解还以为是具体的NLP任务场景,我说都可以做,后来又追问,说是偏数据工程还是模型设计还是模型训练,我脑子一抽说了模型设计,面试官反问说模型设计现在基本上没什么可以改进的了,LLM都基本用decoder结构,然后我说这仨我都可以接受,主要是确实都能做啊,也没啥特别喜爱的QAQ 反问,主要业务场景(安全领域的大模型)、需要具备的技能(追踪最新的SOTA、读paper、理解能力、持续学习能力、动手能力、思考能力)

总体来说 还是一场体验感不错的面试,也没有任何刁难,不会的问题面试官也一直说没关系。像是互相在探讨学习的一个过程~

淘天

大模型(日常实习)

  1. llama 7b 为什么比其他基座好,与gpt3比做了什么改进:数据上质量更高,结构上用的RoPE+SwiGLUE

  2. GQA可以给训练加速吗

  3. 检索增强怎么做的

  4. 长度外推除了ROPE还有什么方法

  5. Baichuan和chatglm2有什么不同,数据上,训练上,结构上

  6. Visualglm图片怎么处理的:blip-qformer

  7. Transformer结构,一层层讲

  8. Visualbert什么结构

  9. RLHF流程:一个actor,一个critic,一个reward model。将sft后的模型输出后生成回答,回答+答案输入RW得到分数(取最后一个token投影一下)

  10. Reward model怎么训练的,损失函数是什么:

  11. 提示工程的fewshot有什么做法:聚类

  12. Chatglm2与1有什么区别

  13. Chatglm2对话权重不一样的原因:

  14. 为什么chatglm系列的用ptuning比lora好

  15. Ptuning是怎么样做的大概讲讲:前面cocat可学习参数,多了一个MLP层,代码中在k,v矩阵中concat矩阵参数

  16. Lora怎么做的?为什么只调q,v矩阵或者q矩阵?别人实验这样做不代表在你这个场景下这样做就是对的?

  17. 为什么模型都聚焦于decoder-only而不是encoder-only或者encoder-decoder:

  18. Self-consistency是什么

太初

大模型算法

面试内容:

  • 自我介绍

  • 实习内容介绍

  • 数据并行

  • ft框架

  • 随机森林

  • gbdt

  • 优化器了解哪些

  • bert和gpt

  • transformer结构

  • 线上服务推理如何提高吞吐量

  • 手撕:链表加法

(完)

在这里你可以了解最前沿AI技术资讯、Paper、大模型(LLM),算法竞赛、实战项目、获取AI算法的校招/社招准备攻略、面试题库、面试经验分享、Offer选择、内推机会、学习路线、求职答疑和海量学习资料等内容。

同时,你也可以与来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~

AI算法交流群方向涉及搜广推、深度学习,机器学习,计算机视觉,知识图谱,自然语言处理,大数据,自动驾驶,机器人,大模型(含ChatGPT)等多个方向。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

本文转自 https://blog.csdn.net/2401_84204413/article/details/141157529?spm=1001.2014.3001.5501,如有侵权,请联系删除。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值