大模型(LLMs)面试题汇总:基础篇、进阶篇

一、大模型(LLMs)基础篇

  • 目前主流的开源模型体系有哪些?
  • prefix LM 和 causal LM 区别是什么?
  • 涌现能力是啥原因?
  • 大模型LLM的架构介绍?
  • 你比较关注那些主流的开源大模型?
  • 目前大模型模型结构都有哪些?
  • prefix LM 和 causal LM、encoder-decoder 区别及各自有什么优缺点?
  • 模型幻觉是什么?业内解决方案是什么?
  • 大模型的 Tokenizer 的实现方法及原理?
  • ChatGLM3 的词表实现方法?
  • GPT3、LLAMA、ChatGLM 的Layer Normalization 的区别是什么?各自的优缺点是什么?
  • 大模型常用的激活函数有哪些?
  • Multi-query Attention 与 Grouped-query Attention 是否了解?区别是什么?
  • 多模态大模型是否有接触?落地案例?

二、大模型(LLMs)进阶面

  • llama 输入句子长度理论上可以无限长吗?
  • 什么是 LLMs 复读机问题?
  • 为什么会出现 LLMs 复读机问题?
  • 如何缓解 LLMs 复读机问题?
  • LLMs 复读机问题
  • llama 系列问题
  • 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
  • 各个专业领域是否需要各自的大模型来服务?
  • 如何让大模型处理更长的文本?
  • 大模型参数微调、训练、推理
  • 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
  • 为什么SFT之后感觉LLM傻了?
  • SFT 指令微调数据 如何构建?
  • 领域模型Continue PreTrain 数据选取?
  • 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
  • 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
  • 进行SFT操作的时候,基座模型选用Chat还是Base?
  • 领域模型微调 指令&数据输入格式 要求?
  • 领域模型微调 领域评测集 构建?
  • 领域模型词表扩增是不是有必要的?
  • 如何训练自己的大模型?
  • 训练中文大模型有啥经验?
  • 指令微调的好处?
  • 预训练和微调哪个阶段注入知识的?
  • 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
  • 多轮对话任务如何微调模型?
  • 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
  • 微调模型需要多大显存?
  • 大模型LLM进行SFT操作的时候在学习什么?
  • 预训练和SFT操作有什么不同?
  • 样本量规模增大,训练出现OOM错

最后

有需要全套的AI大模型面试题及答案解析资料的小伙伴,可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值