100道大模型面试八股文

↓推荐关注↓

算法暑期实习机会快结束了,校招大考即将来袭。

当前就业环境已不再是那个双向奔赴时代了。求职者在变多,岗位在变少,要求还更高了。

最近,我们陆续整理了很多大厂的面试题,帮助球友解惑答疑和职业规划,分享了面试中的那些弯弯绕绕。

喜欢本文记得收藏、关注、点赞,更多实战和面试交流,文末加入我们星球


  1. 你了解ReAct吗,它有什么优点?

  2. 解释一下langchain Agent的概念

  3. langchain 有哪些替代方案?

  4. langchain token计数有什么问题?如何解决?

  5. LLM预训练阶段有哪几个关键步骤?

  6. RLHF模型为什么会表现比SFT更好?

  7. 参数高效的微调(PEFT)有哪些方法?

  8. LORA微调相比于微调适配器或前缀微调有什么优势?

  9. 你了解过什么是稀疏微调吗?

  10. 训练后量化(PTQ)和量化感知训练(QAT)有什么区别?

  11. LLMs中,量化权重和量化激活的区别是什么?

  12. AWQ量化的步骤是什么?

  13. 介绍一下GPipe推理框架

  14. 矩阵乘法如何做数量并行?

  15. 请简述TPPO算法流程,它跟TRPO的区别是什么?

  16. 什么是检索增强生成(RAG)?

  17. 目前主流的中文向量模型有哪些?

  18. 为什么LLM的知识更新很困难?

  19. RAG和微调的区别是什么?

  20. 大模型一般评测方法及其准是什么?

  21. 什么是Kv cache技术,它具体是如何实现的?

  22. DeepSpeed推理对算子融合做了哪些优化?

  23. 简述一下FlashAttention的原理

  24. MHA、GQA、MQA三种注意力机制的区别是什么?

  25. 请介绍一下微软的ZeRO优化器

  26. Paged Attention的原理是什么,解决了LLM中的什么问题?

  27. 什么是投机采样技术,请举例说明?

  28. 简述GPT和BERT的区别

  29. 讲一下GPT系列模型的是如何演进的?

  30. 为什么现在的大模型大多是decoder-only的架构?

  31. 讲一下生成式语言模型的工作机理

  32. 哪些因素会导致LLM中的偏见?

  33. LLM中的因果语言建模与掩码语言建模有什么区别?

  34. 如何减轻LLM中的“幻觉”现象?

  35. 解释ChatGPT的“零样本”和“少样本”学习的概念

  36. 你了解大型语言模型中的哪些分词技术?

  37. 如何评估大语言模型(LLMs)的性能?

  38. 如何缓解LLMs复读机问题?

  39. 请简述下Transformer基本原理

  40. 为什么Transformer的架构需要多头注意力机制?

  41. 为什么transformers需要位置编码?

  42. transformer中,同一个词可以有不同的注意力权重吗?

  43. Wordpiece与BPE之间的区别是什么?

  44. 有哪些常见的优化LLMs输出的技术?

  45. GPT-3拥有的1750亿参数,是怎么算出来的?

  46. 温度系数和top-p、top-k参数有什么区别?

  47. 为什么transformer块使用LayerNorm而不是BatchNorm?

  48. 介绍一下post layer norm和pre layer norm的区别

  49. 什么是思维链(CoT)提示?

  50. 你觉得什么样的任务或领域适合用思维链提示?

  51. 目前主流的开源模型体系有哪些?

  52. prefix LM和causal LM区别是什么?

  53. 涌现能力是啥原因?

  54. 大模型LLM的架构介绍?

  55. 什么是LLMs复读机问题?

  56. 为什么会出现LLMs复读机问题?

  57. 如何缓解LLMs复读机问题?

  58. llama输入句子长度理论上可以无限长吗?

  59. 什么情况下用Bert模型,什么情况下用LLama、ChatGLM类大模型,咋选?

  60. 各个专长领域是否需要各自的大模型来服务?

  61. 如何让大模型处理更长的文本?

  62. 为什么大模型推理时显存涨的那么多还一直占着?

  63. 大模型在gpu和cpu上推理速度如何?

  64. 推理速度上,int8和fp16比起来怎么样?

  65. 大模型有推理能力吗?

  66. 大模型生成时的参数怎么设置?

  67. 有哪些省内存的大语言模型训练/微调/推理方法?

  68. 如何让大模型输出台规化

  69. 应用模式变更

  70. 大模型怎么评测?

  71. 大模型的honest原则是如何实现的?

  72. 模型如何判断回答的知识是训练过的已知的知识,怎么训练这种能力?

  73. 奖励模型需要和基础模型一致吗?

  74. RLHF在实践过程中存在哪些不足?

  75. 如何解决人工产生的偏好数据集成本较高,很难量产问题?

  76. 如何解决三个阶段的训练(SFT->RM->PPO)过程较长,更新迭代较慢问题?

  77. 如何解决PPO的训练过程中同时存在4个模型(2训练,2推理),对计算资源的要求较高问题?

  78. 如何给LLM注入领域知识?

  79. 如果想要快速检验各种模型,该怎么办?

  80. 预训练数据Token重复是否影响模型性能?

  81. 什么是位置编码?

  82. 什么是绝对位置编码?

  83. 什么是相对位置编码?

  84. 旋转位置编码RoPE思路是什么?

  85. 旋转位置编码RoPE有什么优点?

  86. 什么是长度外推问题?

  87. 长度外推问题的解决方法有哪些?

  88. ALiBi(Attention with Linear Biases)思路是什么?

  89. ALiBi(Attention with Linear Biases)的偏置矩阵是什么?有什么作用?

  90. ALiBi(Attention with Linear Biases)有什么优点?

  91. Layer Norm的计算公式写一下?

  92. RMS Norm的计算公式写一下?

  93. RMS Norm相比于Layer Norm有什么特点?

  94. Deep Norm思路?

  95. 写一下Deep Norm代码实现?

  96. Deep Norm有什么优点?

  97. LN在LLMs中的不同位置有什么区别么?如果有,能介绍一下区别么?

  98. LLMs各模型分别用了哪种Layer normalization?

  99. 介绍一下FFN块计算公式?

  100. 介绍一下GeLU计算公式?

  101. 介绍一下Swish计算公式?

  102. 介绍一下使用GLU线性门控单元的FFN块计算公式?

  103. 介绍一下使用GeLU的GLU块计算公式?

  104. 介绍一下使用Swish的GLU块计算公式?

(完)

在这里插入图片描述

在这里你可以了解最前沿AI技术资讯、Paper、大模型(LLM),算法竞赛、实战项目、获取AI算法的校招/社招准备攻略、面试题库、面试经验分享、Offer选择、内推机会、学习路线、求职答疑和海量学习资料等内容。

同时,你也可以与来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企开发者互动交流~

AI算法交流群方向涉及搜广推、深度学习,机器学习,计算机视觉,知识图谱,自然语言处理,大数据,自动驾驶,机器人,大模型(含ChatGPT)等多个方向。

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

大数据分析Hadoop面试八股文是指在Hadoop相关岗位的面试中,常见的问题和答案。以下是一些常见的问题与对应的答案,供您参考: 1. 什么是Hadoop? Hadoop是一个开源的分布式计算框架,用于存储和处理大规模数据集。它基于MapReduce编程模型,并使用HDFS(Hadoop分布式文件系统)进行数据存储。 2. Hadoop的核心组件有哪些? Hadoop的核心组件包括: - HDFS:Hadoop分布式文件系统,用于存储大规模数据集。 - MapReduce:一种计算模型,用于将数据分片并行处理。 - YARN:资源调度和管理框架,用于管理集群资源和作业调度。 3. Hadoop的优点是什么? Hadoop具有以下优点: - 高可扩展性:能够处理大规模数据集。 - 容错性:能够自动处理节点故障。 - 成本效益:使用廉价硬件构建的集群。 - 处理多种数据类型:能够处理结构化和非结构化数据。 4. Hadoop的工作原理是什么? Hadoop的工作原理如下: - 数据被切分为多个块,并存储在HDFS中。 - MapReduce程序将数据切片并并行处理。 - 结果被汇总和返回给应用程序。 5. 如何保证Hadoop集群的高可用性? 为保证Hadoop集群的高可用性,可以使用以下方法: - 使用Hadoop的高可用性模式(HA模式),通过配置多个NameNode来实现自动故障切换。 - 使用数据冗余(数据复制)来提高数据的可靠性。 以上是一些常见的Hadoop面试问题,希望对您有所帮助。请根据实际情况进行准备,并结合自己的经验进行回答。祝您面试顺利!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值