最近这一两周看到不少互联网公司都已经开始秋招提前批了。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
《AIGC 面试宝典》圈粉无数!
《大模型面试宝典》(2024版) 发布!
喜欢本文记得收藏、关注、点赞。更多实战和面试交流,欢迎交流
我们星球一球友跟我微信聊天,说最近去一家大厂面试,上来就手撕 Transformer,费了九牛二虎之力,心情凉一半。。。
这两年,特别是大模型出来后,关于 Transformer 的面试题很多,也特别新。
今天我分享18道 Transformer 高频面试题,希望对你有所帮助。
-
位置编码有哪些?
-
ViT为什么要分patch?
-
介绍Transformer和ViT
-
介绍Transformer的Q,K,V
-
介绍Layer Normalization
-
Transformer训练和部署技巧
-
介绍自注意力机制和数学公式
-
画图说明 Transformer 基本流程
-
介绍Transformer的Encoder模块
-
介绍Transformer的Decoder模块
-
Transformer和Mamba(SSM)的区别
-
Transformer中的残差结构以及意义
-
为什么Transformer适合多模态任务?
-
Transformer的并行化体现在哪个地方?
-
为什么Transformer一般使用LayerNorm?
-
Transformer为什么使用多头注意力机制?
-
Transformer训练的Dropout是如何设定的?
-
Transformer 模型中的自注意力机制是如何工作的?