算法面经小米篇

本文分享了作者在小米的实习和秋招面试经历,涵盖了多分类样本不均衡处理、SVM与LR的区别、预训练模型如Transformer和BERT的深入理解,以及面试中遇到的代码实现题目,包括多头注意力机制、最大重合子序列等。同时,讨论了对比学习、知识蒸馏在实际问题中的应用。
摘要由CSDN通过智能技术生成

算法面经小米篇

实习面经

1.多分类样本不均衡怎么解决
2.svm和lr的异同
3.svm hinge loss
max(0, 1-y*y^) 不关注明显分对的点:比如标注为1 预测大于等于1的点
在这里插入图片描述

4.lr的损失是什么
5.常见预训练模型了解吗
6.transformer结构
7.qk乘了之后 是一个标量还是矢量
8.transformer有几种mask
9.mask是怎么实现的 权重设为负无穷
10.attention的时候还有什么mask
11.Bert有几种embedding
12.Bert和Elmo的区别
https://blog.csdn.net/hyzhyzhyz12345/article/details/104119375

实习手撕

在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

秋招面经

一面
1.简单介绍一下你了解的预训练模型
2.了解可控文本生成吗
3.transformer的结构
4.防止梯度消失梯度下降的方法
手撕:多头注意力机制
手撕:最大重合子序列,二维dp
手撕:第k大的数

二面
1.其他知识蒸馏方法
2.知道自蒸馏嘛
3.谈谈对对比学习的了解
4.多标签分类和多分类的区别
5.多标签分类loss
6.怎么把对比学习用到文本生成模型内
正样本数据增强 负样本随机挑选

手撕:天上最多同时几个飞机,贪心
手撕:每次拿1、2个,判断取n个,先拿的人获胜情况
手撕:梯度下降方法求开平方

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

持续战斗状态

很高兴可以帮到你

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值