节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。
针对大模型技术趋势、算法项目落地经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。
总结链接如下:
喜欢本文记得收藏、关注、点赞。更多实战和面试,欢迎文末加入与我们交流
这两天面试群太热闹了,2025届忙着暑期实习和秋招,2024届的小伙伴已陆续分享了经验和心得,准备奔赴新的城市和新的生活了。
我们也整理了很多大厂的算法岗面试真题(暑期实习结束了,校招陆续开启),前几天整理了比亚迪的最新面试题,今天整理一位星球小伙伴面试英伟达的最新面试题,希望对大家有所帮助。喜欢记得收藏、点赞、关注。参与我们的讨论。
1. LN和BN
2. 介绍RLHF
3. 介绍MoE和变体
4. 介绍LoRA和变体
5. LoRA 参数更新机制
6. 如何减轻LLM中的幻觉现象?
7. MLM和MIM的关系和区别?
8. Stable Diffusion的技术原理
9. 解決LLM Hallucination的方法
10. Occupancy预测的出发点是什么?
11. 介绍RWKV、Mamba和Mamba-2
12. 2D图像预训练怎么迁移到3D点云任务
13. 为什么现在的LLM都是Decoder only的架构?
14. 把Transformer模型训深的问题有哪些?怎么解决
15. 现在车道线检测的主流的loss是什么?你有哪些想法?
16. 为什么GAN中经常遇到mode collapse,而Diffusion比较少?
我还特别整理15道 Transformer 高频面试题
-
介绍Transformer和ViT
-
介绍Transformer的QKV
-
介绍Layer Normalization
-
Transformer训练和部署技巧
-
介绍Transformer的位置编码
-
介绍自注意力机制和数学公式
-
介绍Transformer的Encoder模块
-
介绍Transformer的Decoder模块
-
Transformer和Mamba(SSM)的区别
-
Transformer中的残差结构以及意义
-
为什么Transformer适合多模态任务?
-
Transformer的并行化体现在哪个地方?
-
为什么Transformer一般使用LayerNorm?
-
Transformer为什么使用多头注意力机制?
-
Transformer训练的Dropout是如何设定的?