美团大模型算法实习岗实习 Last Day,有点不舍。。。

最近这一两周看到不少互联网公司都已经开始秋招提前批了。

不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。

最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。

喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们星球


美团实习两个多月了,受益良多,这是我第一次来大厂实习,后悔没有早早去找实习,实习真的比学校收获的多的多。

图片

在实习期间做了一个项目,从取数到模型上线由导师指导,然后我自己完成的,没有一点dirty work,真的舒服,感动。

同时也被大厂的流程和效率感动,虽然美团比较扣,但是对实习生尤其是校招生的培养还是挺友好的。美团上海相对而言没有北京卷,我所在的组的同事和 mentor 人也都超好,都有些舍不得了。

是时候滚回学校准备秋招了,有问题欢迎大家与我交流。

面经总结

可能是因为实习生岗位吧,感觉不是很难,偏技术面一点,整体效果还行,问到很多技术都比较简单,很多问题都是原问题,所以回答起来会比较轻松一点。

总结一下我常被问到的面试题:

  1. 项目介绍

  2. 在项目中,你用到 Bert,你能不能介绍一下 BERT和GPT的训练方式的区别?

  3. 简单介绍一下,transformer架构?Transformer的输入和输出分别是什么?

  4. 说一下 Transformer 的输出和 Bert 有什么区别

  5. self-attention的公式及参数量,为什么用多头,为什么要除以根号d?

  6. 大模型的模型架构有哪些?

  7. ChatGPT对比GPT-3的性能提升主要来源于哪些方面?

  8. InstructGPT 和 ChatGPT 模型中使用的关键技术(SFT->RLHF)

  9. 大模型中常见的位置编码?

  10. 大模型高效参数微调方法?讲一讲 lora 微调

  11. 讲一讲ppo流程 dpo流程

  12. 为什么一定要用偏好对齐不用sft? 你认为偏好对齐和sft区别在哪里?各自优缺点是什么

  13. 你觉得 RAG 和长上下文的区别在哪里?各自有什么优势?

  14. 如何实现长上下文?

  15. llama3 和 llama2 的区别?从数据角度,如何将15T的数据喂到模型里做训练才能稳定?

  16. 在微调阶段,如果出现了训练不稳定怎么办?比如出现了抖动,loss突然增大怎么办?

  17. 了解推理加速方法吗?

leetcode 题

  1. hot 100 hard 二叉树最大路径

  2. 升序数组构建平衡二叉搜索树

  3. 中序遍历

技术交流

在这里插入图片描述

通俗易懂讲解大模型系列

  • 9
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值