面了抖音 NLP 算法岗,感谢面试官的循循善诱

节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。

针对大模型技术趋势、算法项目落地经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。

总结链接如下:

《大模型面试宝典》(2024版) 发布!

在这里插入图片描述

喜欢本文记得收藏、关注、点赞。更多实战和面试交流,也欢迎与我们交流


大家好,最近面试了抖音 NLP 算法岗,对面八股文我还是准备的比较充分,但代码题(数据结构和算法题),每次遇到心里都特别怕。。。

虽然这些题我见过和练习过,但紧张的都忘记了思路,这次面试面试官人品很好,给了一些引导,浪费了一些时间,最后做出来了。

一面

  1. 聊项目
  2. AUC的两种公式是?你能证明这两种等价的吗?
  3. BERT-CRF中,为什么要加CRF?好处是?
  4. self-attention为什么要用QKV三个矩阵,不用有什么问题?有没有哪个模型的Q和K矩阵是一样的?
  5. reinforce属于on-policy还是off-policy?为什么?
  6. reinforce带上baseline好处是?reinforce的loss写一下?
  7. 策略梯度会推导吗?简单写一下?
  8. 介绍大模型微调的优化方法及其区别
  9. 比较ChatGLM、Llama、qwen等大模型的区别
  10. 比较Layer Normalization(Tayernormalization)和Batch Normalization的区别
  11. 大模型langchain和Ilamaindex,比较两者的区别
  12. 描述从0到1训练大模型的流程、方法及注意事项
  13. 当前大模型检索存在的问题,以及如何进行RAG(Retrieval-Augmented Generation)优化的方法

代码题

代码题一般别着急写,先跟面试官说下思路,确定了再写

  1. 给定一个无重复整数数组,返回所有可能的排列
Input: [1,2,3]
Output:
[
  [1,2,3],
  [1,3,2],
  [2,1,3],
  [2,3,1],
  [3,1,2],
  [3,2,1]
]
  1. 矩阵置零:给定一个 m x n 的矩阵,如果一个元素为 0 ,则将其所在行和列的所有元素都设为 0

二面

  1. 介绍项目
  2. 知识蒸馏有哪几种?你觉得哪种效果最好?
  3. nlp的数据增强方法,主要有哪几种?每一种举个例子?
  4. 分类的损失函数为什么是交叉熵而不是mse?
  5. BERT对输入文本的长度有什么限制,为什么要限制长度呢?
  6. 目前有哪几种注意力机制?
  7. 给出emb_size, max_len, vocab_size, ff_inner_size,num_heads, 12层,求BERT参数量
    项目常规问题:项目中印象最深的点,怎么解决的,提升多少

代码题

n 皇后问题

技术交流

前沿技术资讯、算法交流、求职内推、算法竞赛、面试交流(校招、社招、实习)等、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~

我们建了算法岗面试与技术交流群, 想要进交流群、需要源码&资料、提升技术的同学,可以直接加微信号:mlc2040。加的时候备注一下:研究方向 +学校/公司+CSDN,即可。然后就可以拉你进群了。

方式①、微信搜索公众号:机器学习社区,后台回复:技术交流
方式②、添加微信号:mlc2040,备注:技术交流+CSDN

用通俗易懂的方式讲解系列

  • 19
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值