算法面试题目

本文讨论了Transformer架构的关键元素,包括位置编码方法(如LLaMA中的旋转编码),decoder-only设计的原因,以及生成式语言模型如GPT与BERT的区别。内容还涉及因果与掩码语言建模、减少大语言模型幻觉、性能评估,以及微调技术如PEFT和PPO算法的比较,DeepSpeed的优化,以及算法示例如BFS和回文子串问题。
摘要由CSDN通过智能技术生成

一面
说一下 Transformer 的整体结构
了解有哪些位置编码方式吗?
说一下 LLaMA 中的旋转位置编码
为什么现在的大模型大多是decoder-only的架构?
LLM中的因果语言建模与掩码语言建模有什么区别?
如何减轻LLM中的幻觉现象?
如何评估大语言模型(LLMs)的性能?

算法题:经典的求平方根,牛顿迭代法秒了
算法题:判断一个字符串能否由另一个字符串旋转而来,比如abcd旋转后可以变成dabc或者bcda等,写完后面试官要求O(1)

二面
简述GPT和BERT的区别
讲一下生成式语言模型的工作机理
ChatGPT的零样本和少样本学习
Transformer 的多头注意力机制
为什么Transformer的架构需要多头注意力机制?
transformer中,同一个词可以有不同的注意力权重吗?
有哪些常见的优化LLMs输出的技术?
参数高效的微调(PEFT)有哪些方法
请简述下PPO算法流程,它跟TRPO的区别是什么?
DeepSpeed 是否了解?对算子融合做了哪些优化?
算法题:BFS 求岛屿数量
算法题:回文子串的一个题,dp

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值