面试问题记录(RAG方向)

本文讨论了一个项目中采用的大模型,涉及英语和中文语料的处理,结合了BM25和向量检索技术。重点讲解了实体召回、嵌入模型微调、问答模型调整以及LORA原理的应用。同时提到在处理冗余信息和多样抽取目标时的优化策略,以及对NL2SQL的理解。
摘要由CSDN通过智能技术生成
  1. 简单自我介绍
  2. 项目中使用了什么大模型? 语料是英文多还是中文多?
  3. 项目中使用了哪种检索方法
    BM25和向量方法如何结合?
    使用BM25使用了什么分词器??
    有没有针对特定实体进行召回??
    还使用了哪些技巧来提升召回的效果??
  4. 向量召回时使用的嵌入模型是什么??
    有没有对用于向量方法召回的模型进行微调??
  5. 有没有对问答模型进行微调?
    使用了什么微调方法?
    采用了什么手段来提升微调效果??
    简要说明LORA的原理??
    了解ptuning或其它的微调方法吗??
  6. 是否使用了Llamalndex?
    没有使用的原因??
  7. 进行 信息抽取 时,文本中冗余信息较多,抽取目标种类也很多,这种情况使用大模型进行抽取有哪些优化思路??
  8. 是否了解过 NL2SQL?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值