面完小红书算法岗,心态崩了。。。

暑期实习基本结束了,校招即将开启。

不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。提前准备才是完全之策。

最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。

总结链接如下:

喜欢本文记得收藏、关注、点赞。更多实战和面试交流,文末加入我们星球


最近一位同学跟我聊实习,面试了小红书,项目抠的很细,让他有点破防,又问了很多八股。。。心情很是低落。

为什么现在面试都这么卷呢?为什么面试通过率这么低?

前些年互联网蓬勃发展,AI 技术人才供不应求,相关专业毕业生不够用。稍微有些项目经验,工作就不用愁。

那时候招聘,只要资质没问题,先招进来,再培养,所以多数人只要多投多面,总能跳槽成功,殊不知更多是因为公司在抢人,因为业务有前景,活儿总得有人干。

而今时移世易,供需关系逆转,老板们都在强调降本提效,招聘自然会设置更高门槛,优中择优。建议提早准备,多了解职场信息。

一面

  1. 聊项目,抠的贼细
  2. 你们的训练集和验证集. 测试集分别是多少?怎么来的?
  3. 宏平均和微平均是用来干什么的?是如何计算的?他俩的主要区别?
  4. 知识蒸馏为什么有效. 详细介绍一下知识蒸馏?
  5. Transformer为何能够有效地处理长距离依赖问题?与传统RNN和LSTM相比有哪些优势?
  6. 多头注意力的作用是什么?
  7. 在Transformer模型中,位置编码(Position Encoding)的作用是什么
  8. Bert 中有哪些地方用到了mask?
  9. 预训练阶段的 mask 有什么用?
  10. Bert中的transformer和原生的transformer有什么区别?
  11. 强化学习适合在哪些场景使用?
  12. 智力题:如何用rand6实现rand10

代码题

  1. 最小覆盖子串:给你一个字符串 s 、一个字符串 t 。返回 s 中涵盖 t 所有字符的最小子串。如果 s 中不存在涵盖 t 所有字符的子串,则返回空字符串 ""

二面

  1. 聊项目
  2. layer normalization 的好处是?和 batch normalization 的区别?你有没有看过有的 transformer 也用bn?
  3. BERT 的主要改进,包括结构的改进. 预训练方式的改进,都说一下?
  4. Reformer中. LSH(局部敏感哈希)是如何实现的?
  5. CRF 和 HMM 的区别. 哪个假设更强?他们的解码问题用什么算法?
  6. lstm 参数量计算. 给出 emb_size 和 hidden_size. 求lstm参数量
  7. 简单实现一个layer normalization类. 只需要实现__init__和forward就行
  8. 简述GPT和BERT的区别
  9. 为什么现在的大模型大多是decoder-only的架构?
  10. 如何减轻LLM中的幻觉现象?
  11. GPT-3拥有的1750亿参数,是怎么算出来的?
  12. 参数高效的微调(PEFT)有哪些方法?
  13. 目前主流的中文向量模型有哪些?
  14. 请介绍一下微软的ZeRO优化器

代码题

  1. 反转字符串
  2. 无重复字符的最长字串

技术交流&资料

技术要学会分享、交流,不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。

成立了算法面试和技术交流群,相关资料、技术交流&答疑,均可加我们的交流群获取,群友已超过2000人,添加时最好的备注方式为:来源+兴趣方向,方便找到志同道合的朋友。

方式①、微信搜索公众号:机器学习社区,后台回复:加群
方式②、添加微信号:mlc2040,备注:来自CSDN + 技术交流

通俗易懂讲解大模型系列

  • 31
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值