面试经历8.8深圳中厂

1.自我介绍,简单询问一些实习经历,科研经历。

2.问印象最深的项目是什么:

答:BERT模型相关和GPT2模型相关的项目。

3.问Transformers的基本原理:

答:Transformers是由encoder和decoder两个部分组成,encoder是由多个Block组成,每个Block里有Multi-head attention和fully connected组成,decoder是由Masked Muti-head attention和normalization和Multi-head attention,Feed Forward组成。

4.做算法题,最长回文子串:

答:编码时间小长(后问最长回文子串的状态转移方程:p(i,j)=p(i+1,j-1)^(Si==Sj))

总结:面试老师说没太大问题,后面问了一些常规问题,过不过看天意吧!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值