大模型(LLMs)算法工程师的面试题_大模型开发工程师 面试问题

本文详述了大模型(LLMs)在langchain中的应用,包括文档对话、模型幻觉处理、核心技术和痛点分析。此外,探讨了LoRA、提示学习、适配器微调等高效微调方法,以及大模型的推理和评测挑战。最后,强调了强化学习和团队合作在技术提升中的重要性。
摘要由CSDN通过智能技术生成
+ 3. SFT 指令微调数据 如何构建?
+ 4. 领域模型Continue PreTrain 数据选取?
+ 5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
+ 6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
+ 7. 进行SFT操作的时候,基座模型选用Chat还是Base?
+ 8. 领域模型微调 指令&数据输入格式 要求?
+ 9. 领域模型微调 领域评测集 构建?
+ 10. 领域模型词表扩增是不是有必要的?
+ 11. 如何训练自己的大模型?
+ 12. 训练中文大模型有啥经验?
+ 13. 指令微调的好处?
+ 14. 预训练和微调哪个阶段注入知识的?
+ 15. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
+ 16. 多轮对话任务如何微调模型?
+ 17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
+ 18. 微调模型需要多大显存?
+ 19. 大模型LLM进行SFT操作的时候在学习什么?
+ 20. 预训练和SFT操作有什么不同
+ 21. 样本量规模增大,训练出现OOM错
+ 22. 大模型LLM进行SFT 如何对样本进行优化?
+ 23. 模型参数迭代实验
  • 大模型(LLMs)langchain面
      1. 基于LLM+向量库的文档对话 基础面
        1. 基于LLM+向量库的文档对话 优化面
        1. 基于LLM+向量库的文档对话 工程示例面
        1. LLMs 存在模型幻觉问题,请问如何处理?
        1. 基于LLM+向量库的文档对话 思路是怎么样?
        1. 基于LLM+向量库的文档对话 核心技术是什么?
        1. 基于LLM+向量库的文档对话 prompt 模板 如何构建?
        1. 痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失
        1. 痛点2:在基于垂直领域 表现不佳
        1. 痛点3:langchain 内置 问答分句效果不佳问题
        1. 痛点4:如何 尽可能召回与query相关的Document 问
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值