面试小米大模型算法工程师,心态炸了!!!

编辑 | AIGC小白入门记

点击下方卡片,关注“自动驾驶之心”公众号

戳我-> 领取自动驾驶近15个方向学习路线

>>点击进入→自动驾驶之心大语言模型技术交流群

本文只做学术分享,如有侵权,联系删文

关于小编:小编是过年某985研二,过完年打算找大厂实习 offer,本文章主要记录了本小菜研找实习的坎坷历程,欢迎大佬们给建议!!!

应聘岗位:小米-NLP算法工程师 面试轮数:整体面试感觉:

1. 自我介绍

在自我介绍环节,我清晰地阐述了个人基本信息、教育背景、工作经历和技能特长,展示了自信和沟通能力。

2. 技术问题

2.5 RAG 相关面试题

  1. 聊一下RAG项目总体思路?

  2. 使用外挂知识库主要是为了解决什么问题?

  3. 如何评价RAG项目的效果好坏,即指标是什么?

  4. 在做RAG项目过程中遇到哪些问题?怎么解决的?

  5. RAG项目里面有哪一些亮点?目前开源的RAG项目非常多,你的项目和他们有什么区别?

  6. 数据集怎么构建的,什么规模,评估指标是什么,这些指标存在哪些问题?

  7. 模型底座是什么,这些不同底座什么区别,什么规模?

  8. 使用哪一种训练方法,什么sft,这些方法有什么不同,有什么优缺点,原理上解释不不同方法的差别?

  9. 模型推理是怎么做的,有没有cot,tot等等,还是单轮?

  10. 大模型可控性如何实现,怎么保证可控性?

  11. 模型部署的平台,推理效率怎么样,如何提升推理效率?

  12. 项目最后上线了么,上线之后发现什么问题,如何解决?

  13. 给一个总的输入输出样例,每一步包含什么prompt,多轮推理每一步输出什么结果,模拟一下,数据集格式是否要调整成这样,数据形式是什么,怎么拆分成多轮形式?

2.6 Agent 相关面试题

  1. 了解 Ai Agent 么?

  2. 知道 Multi-Agent 么?

  3.  Multi-Agent 如何 实现多代理协作的?

  4. Multi-Agent 如何 实现多代理竞争的?

  5. 你了解哪些 开源 Agent?有部署过么?效果怎么样?

2.1 self-attention的计算方式?

34ba40384020b840773fe6cf48aa5d2a.jpeg

2.2 说一下 transformer的模型架构和细节?

374d3e71adf1497358760e3b1027977e.jpeg

2.3 说一下大模型高校参数微调方式 p-tuning v2?

P-Tuning V2在P-Tuning V1的基础上进行了下述改进:

  • 在每一层都加入了Prompts tokens作为输入,而不是仅仅加在输入层,这与Prefix Tuning的做法相同。这样得到了更多可学习的参数,且更深层结构中的Prompt能给模型预测带来更直接的影响。

  • 去掉了重参数化的编码器。在 P-tuning v2 中,作者发现重参数化的改进很小,尤其是对于较小的模型,同时还会影响模型的表现。

  • 针对不同任务采用不同的提示长度。提示长度在提示优化方法的超参数搜索中起着核心作用。在实验中,我们发现不同的理解任务通常用不同的提示长度来实现其最佳性能,这与Prefix-Tuning中的发现一致,不同的文本生成任务可能有不同的最佳提示长度。

  • 可选的多任务学习。先在多任务的Prompt上进行预训练,然后再适配下游任务。一方面,连续提示的随机惯性给优化带来了困难,这可以通过更多的训练数据或与任务相关的无监督预训练来缓解;另一方面,连续提示是跨任务和数据集的特定任务知识的完美载体。

2.4 在 大模型任务中,你用到 LoRA,讲一下 LoRA 实现原理?

LoRA 的思想很简单:

  • 在原始 PLM (Pre-trained Language Model) 旁边增加一个旁路,做一个降维再升维的操作,来模拟所谓的intrinsic rank。

  • 训练的时候固定 PLM 的参数,只训练降维矩阵 A 与升维矩阵 B 。而模型的输入输出维度不变,输出时将 BA 与 PLM 的参数叠加。

  • 用随机高斯分布初始化 A ,用 0 矩阵初始化 B ,保证训练的开始此旁路矩阵依然是 0 矩阵。

3. Leetcode 题

具体题意记不清了,但是类似 【两数之和】

  • 题目内容

给定一个整数数组 nums 和一个整数目标值 target,请你在该数组中找出 和为目标值 target 的那 两个 整数,并返回它们的数组下标。

你可以假设每种输入只会对应一个答案。但是,数组中同一个元素在答案里不能重复出现。

你可以按任意顺序返回答案。

示例 1:
输入:nums = [2,7,11,15], target = 9 输出:[0,1] 解释:因为 nums[0] + nums[1] == 9 ,返回 [0, 1] 。
示例 2:
输入:nums = [3,2,4], target = 6 输出:[1,2]
示例 3:
输入:nums = [3,3], target = 6 输出:[0,1]
提示:
2 <= nums.length <= 10**4
-109 <= nums[i] <= 109
-109 <= target <= 109
  • 代码实现

def twoSum(nums, target):
    hashmap={}
    for ind,num in enumerate(nums):
        hashmap[num] = ind
    for i,num in enumerate(nums):
        j = hashmap.get(target - num)
        if j is not None and i!=j:
            return [i,j]

投稿作者为『自动驾驶之心知识星球』特邀嘉宾,欢迎加入交流!

① 全网独家视频课程

BEV感知、BEV模型部署、BEV目标跟踪、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测车道线检测轨迹预测在线高精地图世界模型点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署大模型与自动驾驶Nerf语义分割自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

f8a239b5052d29b947ac3539b1ce39a3.png

网页端官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

国内最大最专业,近3000人的交流社区,已得到大多数自动驾驶公司的认可!涉及30+自动驾驶技术栈学习路线,从0到一带你入门自动驾驶感知2D/3D检测、语义分割、车道线、BEV感知、Occupancy、多传感器融合、多传感器标定、目标跟踪)、自动驾驶定位建图SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案大模型、端到端等,更有行业动态和岗位发布!欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频

93a967d57d592e3ab3d2d3bc1aaeb566.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦感知、定位、融合、规控、标定、端到端、仿真、产品经理、自动驾驶开发、自动标注与数据闭环多个方向,目前近60+技术交流群,欢迎加入!扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

09324042944b37801ba9919d95c4d590.jpeg

④【自动驾驶之心】全平台矩阵

a2ba2d63561faa5ca733ab93b84e8a84.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
算法工程师面试中,可能会遇到有关Transformer模型的问题。Transformer模型是一种基于自注意力机制的深度学习模型,广泛应用于自然语言处理任务。以下是一些可能被问到的问题及其答案: 1. 请简要介绍一下Transformer模型。 Transformer模型是一种基于注意力机制的深度学习模型,用于处理序列数据,特别是在自然语言处理任务中取得了巨大成功。它由编码器和解码器两个部分组成,每个部分都包含了多个注意力机制层。编码器负责将输入序列转换为一个抽象的表示,解码器则根据这个表示生成目标序列。Transformer模型摒弃了传统的循环神经网络(RNN)结构,通过全局关注输入序列中的所有位置,从而能够处理长距离依赖关系。 2. Transformer模型中的非线性来自哪里? Transformer模型中的非线性主要来自于激活函数,其中一种常用的激活函数是GELU(Gaussian Error Linear Unit)。GELU激活函数在ReLU的基础上增加了随机因素,这使得输入值越小越容易被“mask”掉,从而引入了非线性。通过这种激活函数,Transformer模型能够更好地处理不同位置的特征。 3. 在Transformer模型中,self-attention是如何实现的? 在Transformer模型中,self-attention是通过计算输入序列中每个位置与其他位置之间的相关性得到的。具体来说,通过对输入序列中的每个位置进行线性变换,得到查询(query)、键(key)和值(value)三个向量。然后,通过计算查询向量与键向量的点积,并经过softmax归一化,得到每个位置与其他位置的注意力权重。最后,将注意力权重与值向量相乘并求和,得到最终的输出。 综上所述,算法工程师面试中可能会涉及到Transformer模型的基本原理、非线性来源以及self-attention的实现方式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值